Text: Magdalena Ask
Föreställ dig ett krig avskalat på alla humanitära, kulturella och kontextbaserade aspekter. Ett krig där en förprogrammerad algoritm bestämmer vem som ska leva och vem som ska dö. Att avhumanisera sin motståndare har länge varit ett effektivt sätt för att rättfärdiga krig och utsätta soldater för fara, men är en lång och kostsam process. Inom en snar framtid kan autonoma vapen, även kallade mördarrobotar (eller killer robots), komma att förändra krigsföringens natur i grunden. En verklighet där trösklarna för att gå in i krig sänks.
Användningen av artificiell intelligens (AI) är på stark uppgång inom vapenindustrin. Genom kategorisering väljer maskinen helt autonomt den åtgärd som bäst uppfyller syftet. Maskinen kan således helt på egen hand i kritiska situationer välja mål och själv attackera, helt utan någon mänsklig inblandning eller något etiskt eller rättslig övervägande. Att förprogrammera en maskin till att möta alla tänkbara kontexter och situationer är en praktisk omöjlighet. Ett autonomt vapen innebär följaktligen en total separation mellan det mänskliga och krigsföringen.
Att ett autonomt vapen separerar soldaten från slagfältet innebär inte att samma separation sker mellan den civila befolkningen och slagfältet. I modern krigsföring där gränserna mellan allierad, civil och fiende suddas ut alltmer blir konsekvensen av autonoma vapen en ökad risk för civilbefolkningen i konfliktdrabbade områden. Den oförutsägbarhet som skapas i relation till såväl andra autonoma vapen som till egna tekniska begränsningar kan vidare leda till ett alltmer osäkert säkerhetspolitiskt läge. Det kan i sin tur sänka trösklar för att gå in i krig, öka spännaningar mellan länder och slutligen resultera i en global kapprustning.
Våldtäkt och könsrelaterat våld har länge använts som vapen i konflikter för att visa makt och förnedra fienden. I konflikter förstärks redan befintliga maktstrukturer och diskriminering. En oroande faktor som lyfts av forskare i samband med analyser av autonoma vapen är därför hur redan befintliga fördomar kan vävas in i programmeringen. Genom att underlätta profilering och avhumanisering är autonoma vapen ett direkt hot mot redan marginaliserade grupper.
Utvecklingen av autonoma vapen går i snabbare takt än utvecklingen av den humanitära rätten. När soldaten och vapnet är separerat, vem blir då ansvarig vid krigsbrott? Distinktionsprincipen, om åtskillnad av civila och militära mål, och proportionalitetsprincipen, att militära åtgärder inte skall överskrida det som är nödvändigt med hänsyn till ändamålet, är två hörnstenar inom den internationella humanitära rätten. Autonoma vapen skulle inte ha den mänskliga förmågan att i varje given situation göra den bedömning som krävs.
År 2013 beslutades det inom FN:s konvention om förbud mot eller inskränkning i användningen av vissa konventionella vapen (Convention on certain conventional weapons – CCW) att årligen hålla informella expertmöten mellan stater för att diskutera frågor relaterade till autonoma vapensystem. Inom ramarna för dessa diskussioner har tre tydliga linjer utformats. En som förespråkar ett förbud, en som vill driva en politisk deklaration och samt en som vill blockera de två förstnämnda. Vi menar att ett förbud skulle tvinga länder att sätta tydliga spelregler kring autonomi och vapen. Ett grundläggande krav inom ett förbud skulle vara att det finns ”meningsfull mänsklig kontroll”. Utvecklingen går fort och kräver därför handling. Målet inom CCW bör därför vara att under 2021 års översynskonferens fatta beslut om formella förhandlingar om ett förbud mot autonoma vapen. Idag har 30 stater internationellt ställt sig bakom kravet på ett förbud, dock inte Sverige. Detta trots att utrikesminister Ann Linde i regeringens utrikespolitiska deklaration den 12 februari 2020 meddelade att ”Sverige driver på inom ramen för Konventionen om vissa konventionella vapen (CCW) för ett effektivt internationellt förbud mot dödliga autonoma vapen som är oförenliga med folkrättens krav.”
Den expertis som Sverige besitter inom AI forskning i kombination med den svenska feministiska utrikespolitiken gör landet till en självklar ledare i arbetet med ett förbud av autonoma vapen. IKFF rekommenderar därför att Sverige:
- ställer sig bakom ett förbud mot autonoma vapen inom FN,
- driver på för ett internationellt förbud mot autonoma vapen,
- drar nytta av sin ledande position inom civil AI forskning och anordnar ett expertmöte,
- utifrån den feministiska utrikespolitiken tar en ledande roll i arbete för ett genusperspektiv och en feministisk analys tydligare inkluderas i arbetet med autonoma vapen,
- initierar ett möte på politisk nivå tillsammans med likasinnade stater med bred geografisk spridning,
- aktivt driver ett internationellt förbud mot autonoma vapen på humanitär grund.
- driver för att förhandlingar ska vara öppna för civilsamhället.
I Stop Killer Robots – Hur Sverige kan driva på för ett förbud mot autonoma vapen går vi igenom frågan ur en rad perspektiv med utgångspunkt i humanitär nedrustning och ger förslag på hur Sverige kan driva frågan framåt. IKFF sitter i utrikesministerns Folkrätts- och nedrustningsdelegations arbetsgrupp för autonoma vapen. Denna publikation har därmed utformats till viss del utifrån de frågeställningar som arbetsgruppen blivit tilldelade.
Internationella Kvinnoförbundet för Fred och Frihet, IKFF, är en del av den globala kampanjen Campaign to Stop Killer Robots som består av en koalition av 170 civilsamhällesorganisationer från 65 länder. Målet för kampanjen är att ett så kallat förebyggande förbud ska förhandlas fram, med syfte att stoppa utvecklingen.