Stridande robotar som fattar egna beslut. Som mycket annat vilket låter som rena rama science fiction är det närmare än man kan tro att bli verklighet. Autonoma vapensystem väcker en radda svåra etiska frågor, och utgör ett reellt hot mot hela mänskligheten.
Human Rights Watch varnar i en ny rapport för att sådana system riskerar att bryta mot flera mänskliga rättigheter, däribland förstås rätten till liv. I en debattartikel i Svenska Dagbladet (27/4) skriver organisationens Nordenchef Måns Molander att vi finner oss vid ett Oppenheimer-ögonblick för den nya tekniken, med en alludering till atombombens fader. Det handlar om teknik som är lika banbrytande som skrämmande.
I centrum finns dels frågan om vems ansvar det är om artificiell intelligens agerar oberäkneligt eller rent av felaktigt, i värsta fall gör sig skyldig till krigsbrott. En robot kan ha svårare än en människa att skilja soldater från civila, exempelvis. Ansvarsfrågan är ständigt närvarande i allt form av beslutsfattande där AI involveras, men ställs verkligen på sin spets när det gäller autonoma vapen. Det går inte att ställa en robot inför rätta i Haag.
Molander exemplifierar i debattartikeln med patrullrobotar som jagat och skjutit på stridande i Libyen, att militären i såväl Burkina Faso som Etiopien använt sig av drönare mot civila, och avancerade system som israeliska militären använder för att välja ut mål i Gaza. I inget av fallen är det fråga om fullt utvecklade autonoma vapen, men det är exempel på hur långt digitaliseringen av stridsföring kommit.
Helt autonoma system är ett logiskt nästa steg. Inte minst för att krigsföring är tärande på mänskliga psyken, att fatta beslut som berövar andra människor livet är inte lätt ens om det sker i självförsvar. Samtidigt är det oacceptabelt att outsourca vår mänsklighet till datorer. Till specifikt Sverige riktar Human Rights Watch uppmaningar, som är värda att hörsamma: att ta ställning för en folkrättsbaserad och etisk hållning till den nya teknologin, för förbud och regleringar av autonoma vapen inom ramen för FN:s generalförsamling, och sedan driva på för det tillsammans med likasinnade stater inför FN-mötet i maj. Det borde vara helt självklara ställningstaganden.
I Ukraina utvecklas autonoma vapensystem aktivt för att bistå i försvaret mot Ryssland. Såklart av nödvändighet, för att få slut på det fruktansvärda kriget. Det svåra är att när anden väl är ute ur flaskan, går den inte att stoppa tillbaka den. Och blir det inte Ukraina, lär någon annan släppa lös den. Sannolikt en aktör med onda avsikter. Human Rights Watch varnar för tillämpningar i auktoritära stater, som del av en extremrepressiv ordningsmakt, eller i terrorsyfte.
Tekniken blir då ännu ett existentiellt hot för människan att hantera, och det blir en ännu svårare uppgift i oroliga tider där internationella samarbeten naggas i kanterna. Men så tillhör det sakens natur att nya förödande vapen sällan utvecklas i fredstid.
Desto viktigare att stater som Sverige, vilka befinner sig utanför stridens hetta, tänker kallt, och försöker få fungerande regelverk på plats. Med autonoma mördarrobotar passeras en gräns. Artificiell intelligens ska inte fatta beslut på liv och död, människors öden ska inte kalkyleras fram på kretskort – inte ens i fullskaligt krig.