Mördarrobotar
Datorer blir allt smartare, med egna ”hjärnor” som kan lära sig saker och fatta egna beslut utan vår inblandning, med hjälp av så kallad artificiell intelligens (AI) eller maskinintelligens. Denna utveckling har möjligheten att hjälpa oss hantera vissa utmaningar, exempelvis i relation till klimatförändringar och sjukvård.
Alla som har arbetat på en dator vet dock att det ibland uppstår fel. Den hänger sig och inget händer när du trycker på tangenterna. Det kan skapa irritation men gör inte så mycket om det bara är att starta om datorn för att få den att fungera igen. Men vad händer om datorn har ett vapen?
Vad är mördarrobotar?
Användningen av artificiell intelligens (AI) är på stark uppgång inom vapenindustrin. Redan idag används vapen med viss autonomi (självstyrning), men i slutändan är det en människa som fattar besluten, som trycker på en knapp och som har kontrollen. Ett sådant exempel är väpnade drönare, obemannade farkoster som styrs från ett kontor där en människa genom en kamera bestämmer vilken byggnad, eller människa, som ska beskjutas och trycker på knappen.
Men nu är länder och vapenindustrin på väg att gå ett steg längre och utveckla vapen som på egen hand kan välja ut och attackera ett mål utan någon mänsklig inblandning eller kontroll. Människa och maskin separeras fullt ut. Dessa vapen kallas för autonoma vapen, eller mördarrobotar (killer robots på engelska).
Vad är problemet?
Att strida med robotar istället för människor skulle innebära att soldater slipper skickas ut i krig. Det skulle kunna spara människoliv. Så vad är problemet med mördarrobotar? Svaret är att finns många. De kan delas in i etiska, tekniska, säkerhetsmässiga och juridiska aspekter.
Ett feministiskt perspektiv på mördarrobotar
Våld och väpnade konflikter kan förebyggas, de ska inte ”lösas” med ny vapenteknologi. Krig sätter samhällen i kris och leder till ökad orättvisa och diskriminering. Grupper som redan är förtryckta eller saknar makt, som kvinnor och minoritetsgrupper, blir ännu mer utsatta. Det inkluderar sexuellt och könsrelaterat våld. Att ersätta soldater med robotar betyder inte att detta våld skulle upphöra. Den som hävdar att mördarrobotar kan vara bättre i krig eftersom ”robotar inte våldtar” förstår inte syftet med sexuellt våld i konflikter. Det handlar inte om enskilda soldaters sexualitet, det är ett verktyg för att utöva makt och förnedra. Det innebär att robotar kan programmeras för att begå våldtäkter.
Mördarrobotar skulle inte göra att sexuellt våld i väpnade konflikter upphör. Dessa vapensystem ifrågasätter inte en order att sammanföra kvinnor för att våldta dem.
– Ayo Ayoola-Amale, IKFF Ghana.
Redan idag finns det en utbredd straffrihet när det kommer till könsrelaterat våld i krig, särskilt sexuellt våld. Risken för att användningen av mördarrobotar kommer att leda till brott mot mänskliga rättigheter, utan att ansvar utkrävs, är överhängande.
Robotar kan diskriminera
Egenskaper som kön, ålder och plats används redan idag för att identifiera personer, inte minst vid drönarattacker. En stor risk är att fördomar vävs in i mördarrobotar då de skulle programmeras utifrån så kallade ”målprofiler”.
Civil användning av AI, i program för exempelvis ansiktsigenkänning, har idag svårare att känna igen och identifiera personer som inte är vita rakade män, röstigenkänning har svårare att tolka kvinnors röster eller icke-nordamerikanska dialekter, och foton av människor som befinner sig i ett kök kategoriseras automatiskt som kvinnor. I USA finns det exempel på att människor nekats borgen utifrån att ett program dragit slutsatsen att en icke-vit kvinna mer troligt begår brott än en vit kvinna.
Robotar kan därmed rasifiera på samma sätt som människor eftersom de programmeras utifrån samhällets föreställningar. Dessa vapen kan också förprogrammeras med syfte att diskriminera. Mördarrobotar är därför ett direkt hot mot marginaliserade grupper.
IKFF:s arbete om mördarrobotar
IKFF är en del av den globala kampanjen för ett förbud mot mördarrobotar, Campaign to Stop Killer Robots. Genom den samarbetar vi med organisationer världen över för att driva på att internationella förhandlingar om förbud och reglering av autonomi i vapensystem inleds, och sprider kunskap om frågan.
Sedan år 2016 sitter IKFF:s generalsekreterare i utrikesministerns Folkrätts- och nedrustningsdelegation där frågan om helt autonoma vapensystem har behandlats. Där har vi fört in IKFF:s perspektiv och kunskap i de rapporter och underlag som delegationens arbetsgrupper sammanställt till utrikesministern och Utrikesdepartementet.
Vi följer Sveriges agerande i internationella forum, där Sverige inte har tagit den ledande roll som många hade hoppats på. Genom att bevaka de internationella diskussionerna kan vi kräva ansvar och handling från Sverige.
Varför ett förbud mot mördarrobotar?
Tusentals människor över hela världen arbetar med det gemensamma målet att förbjuda utvecklingen av mördarrobotar för en fredligare framtid genom Campaign to Stop Killer Robots. Målet är att förhandla fram ett så kallat förebyggande förbud, alltså ett förbud innan vapnen ens finns.
Framtagandet av ett internationellt förbud mot mördarrobotar kan stoppa utvecklingen och förhindra de risker som vapnen medför. Förbud mot särskilda vapen är en viktig del i arbetet för att förebygga väpnade konflikter och användandet av våld och för att främja fred. Det skulle även göra det svårare att utveckla vapnen då ett förbud skapar normer som stoppar investeringar samtidigt som utvecklingen av civil AI, för användning inom exempelvis sjukvård, kan fortsätta.
Många som arbetar och forskar inom AI, och därmed har djup kunskap om hur det fungerar, varnar för konsekvenserna om denna teknik beväpnas. År 2017 uppmanade 116 AI- och robotföretag FN att förbjuda mördarrobotar. Vidare har fler än 30 000 experter inom robotik och AI, tjugo tidigare mottagare av Nobels fredspris, och över 160 religiösa ledare, inklusive Desmond Tutu, krävt ett förbud.
Vad händer internationellt?
Sedan år 2014 har frågan om en reglering av utvecklingen av mördarrobotar diskuterats i FN. Det finns olika viljor om huruvida målet är ett rättsligt bindande förbud, en uppförandekod eller ingenting alls, och om regleringen endast ska kontrollera användningen av mördarrobotar eller även utvecklingen av dem. Trots samtalen har inga konkreta resultat uppnåtts på grund av motstånd från en handfull stater, särskilt Ryssland och USA (som själva utvecklar dessa vapen).
Samtidigt växer antalet länder som utrycker oro för utvecklingen. I FN:s generalförsamling år 2022 ställde sig 70 stater bakom ett uttalande om mördarrobotar. FN:s generalsekreterare António Guterres har visat stöd för en reglering av mördarrobotar, inklusive ett förbud. I oktober 2023 kommer autonoma vapen för första gången att lyftas i en resolution i FN:s generalförsamling. För mer internationella uppdateringar, besök Campaign to Stop Killer Robots.
Lär dig mer
Grejen med mördarrobotar
I vår vardag möter vi allt oftare datorer som i sitt beteende liknar människor. Datorer blir allt smartare, med egna ”hjärnor” som kan lära sig saker och fatta egna beslut med hjälp av så kallad artificiell intelligens (AI) eller maskinintelligens.
Användningen av AI är på stark uppgång inom vapenindustrin. Redan idag används vapen med viss autonomi, men i slutändan är det en människa som fattar besluten. Men nu är vapenindustrin på väg att gå ett steg längre och utveckla vapen som på egen hand kan välja ut och attackera ett mål utan någon mänsklig inblandning eller kontroll. Dessa vapen kallas för helt autonoma vapen, eller mördarrobotar.
I denna publikation får du lära dig mer om mördarrobotar utifrån etiska, juridiska och politiska perspektiv och vad vi gör för att stoppa utvecklingen. Den innehåller även diskussionsfrågor.
Mördarrobotar: framtid eller fiktion?
Inom vapenindustrin märks en snabb utveckling av AI. Det senaste är helt autonoma vapen, vilket innebär vapensystem som är frånkopplad från mänsklig inblandning. Dessa så kallade ”mördarrobotar” innebär vapen som självständigt väljer ut sina mål och attackerar med ingen eller väldigt begränsad mänsklig kontroll. Redan idag finns vapen med viss autonomi, men den pågående utvecklingen tar detta ett betydande steg längre och anses därmed möjliggöra en ny generation krigsföring.
Stop killer robots – hur sverige kan driva ett effektivt förbud mot autonoma vapen
Användningen av artificiell intelligens (AI) är på stark uppgång inom försvarsindustrin. Det innebär att det inom en inte alltför avlägsen framtid finns en stor risk att helt autonoma vapen, även kallade ”killer robots”, kommer att utvecklas och användas. Sådana vapen, som har autonomi i kritiska funktioner, skulle på egen hand kunna välja ut mål och attackera utan någon form av mänsklig inblandning.
Internationella Kvinnoförbundet för Fred och Frihet, IKFF, är en del av den globala kampanjen Campaign to Stop Killer Robots som består av en koalition av 160 civilsamhällesorganisationer från 65 länder. Målet för kampanjen är att ett så kallat förebyggande förbud ska förhandlas fram, med syfte att stoppa utvecklingen. I denna rapport går vi igenom frågan utifrån olika perspektiv och beskriver hur Sverige kan arbeta för ett förbud.
Ladda ner Stop killer robots – hur sverige kan driva ett effektivt förbud mot autonoma vapen
Killer robots: regional and gendered aspects
A conversation between Dr. Ayo Ayoola-Amale, President of WILPF Ghana, and Bibiana Tanda, WILPF Sweden on killer robots.
Övrigt
- Fredspodden #3 – IKFF:s tidigare politiska handläggare intervjuas om mördarrobotar i Svenska Freds podd
- Webinarium på Facebook med Human Rights Watch och IKFF