Mördarrobotar - IKFF
Hem » Vårt arbete » Nedrustning » Mördarrobotar

Datorer blir allt smartare, med egna ”hjärnor” som kan lära sig saker och fatta egna beslut utan vår inblandning, med hjälp av så kallad artificiell intelligens (AI) eller maskinintelligens. Denna utveckling har möjligheten att hjälpa oss hantera vissa utmaningar, exempelvis i relation till klimatförändringar och sjukvård.

Alla som har arbetat på en dator vet dock att det ibland uppstår fel. Den hänger sig och inget händer när du trycker på tangenterna. Det kan skapa irritation men gör inte så mycket om det bara är att starta om datorn för att få den att fungera igen. Men vad händer om datorn har ett vapen?

Vad är mördarrobotar?

Användningen av artificiell intelligens (AI) är på stark uppgång inom vapenindustrin. Redan idag används vapen med viss autonomi (självstyrning), men i slutändan är det en människa som fattar besluten, som trycker på en knapp och som har kontrollen. Ett sådant exempel är väpnade drönare, obemannade farkoster som styrs från ett kontor där en människa genom en kamera bestämmer vilken byggnad, eller människa, som ska beskjutas och trycker på knappen.

Men nu är länder och vapenindustrin på väg att gå ett steg längre och utveckla vapen som på egen hand kan välja ut och attackera ett mål utan någon mänsklig inblandning eller kontroll. Människa och maskin separeras fullt ut. Dessa vapen kallas för autonoma vapen, eller mördarrobotar (killer robots på engelska).

Vad är problemet?

Att strida med robotar istället för människor skulle innebära att soldater slipper skickas ut i krig. Det skulle kunna spara människoliv. Så vad är problemet med mördarrobotar? Svaret är att finns många. De kan delas in i etiska, tekniska, säkerhetsmässiga och juridiska aspekter.

Etiska gränser

Människor har mänskliga egenskaper som empati, samvete och känslor. Vi har etiska och moraliska regler och normer. Dessa egenskaper kan en robot inte efterlikna. En robot gör det som krävs för att uppnå ett mål, oavsett konsekvenser.

Utvecklingen av mördarrobotar betyder en separation mellan människa och slagfält som leder till avhumanisering av krigföring. När vi inte ser människorna som drabbas av våldet slutar de vara människor, de blir objekt som ska bekämpas. Avsaknaden av mänskliga egenskaper gör att mördarrobotar saknar förmågan att göra etiska bedömningar.

Om vi tillåter maskiner att fatta beslut om liv och död, kliver vi över en etisk gräns. Detta strider mot grundläggande principer om mänsklig värdighet och rätten till liv. De långsiktiga konsekvenserna kan vi inte överskåda.

Teknikens begränsningar

Artificiell intelligens kan fatta egna beslut för att på det mest effektiva sättet nå sitt mål. AI har förmågan att lära och anpassa sig utifrån erfarenhet vilket medför extrema risker då de kan ändra sitt beteende, göra saker som de ursprungligen inte var tänkta för, utan att tillverkaren eller användaren förstår hur eller varför. Tekniken har därmed allvarliga begränsningar då vi inte kan veta hur de kommer att bete sig. Precis som med din dator kan det också uppstå tekniska fel. Om en mördarrobot börjar skjuta okontrollerat på grund av fel blir följderna katastrofala. Hur stora risker är acceptabla? Vi vet även att inget system är hundra procent vattentätt. Hackerattacker och buggar i systemen kan få ödesdigra konsekvenser när det handlar om vapen.

Tröskeln för krig sänks

Mördarrobotar skulle i grunden förändra användningen av våld. Konsekvenserna av dessa förändringar skulle vara globala och ändra själva krigföringens natur. Denna nya teknik kan leda till en internationell kapprustning, som ökar osäkerheten och hotar global fred och säkerhet. Om ett land skaffar mördarrobotar kommer andra, som har möjlighet, att följa efter och upprustningen är ett faktum. Alla vill ”skydda” sig från varandra.

Mördarrobotar kan även bli oförutsägbara i samspel med varandra. Det kan leda till en snabb och oplanerad upptrappning av konflikter, eftersom de kan svara på handlingar från andra mördarrobotar fortare än människor hinner reagera. En okontrollerad och farlig kedjereaktion av våld kan då utlösas.

Distans och avhumanisering kan leda till ökad användning av våld. Stater och väpnade grupper kan föra krig utan att själva vara närvarande eller känna konsekvenserna av våldet. Att sätta in soldater i en konflikt innebär idag att beräkna risken för att människoliv förloras. Om de egna soldaterna inte längre riskerar att dö, sänks tröskeln för att gå in i krig då ”kostnaden” blir lägre. Vi kan därför komma att se fler väpnade konflikter i framtiden med stora risker för att civila drabbas.

Vi har redan sett hur den tekniska utvecklingen med väpnade drönare lett till en ”byråkratisering av våld” där ett ökat avstånd mellan militär och slagfält gör att det mänskliga lidandet av våldet endast blir till statistik över huruvida målet uppnåtts eller inte. Detta ger en inblick i hur utvecklingen av mördarrobotar kan påverka framtidens krigföring.

Hur skyddas civila?

Mördarrobotar är en helt ny och aldrig tidigare skådad utveckling av vapen som innebär nya utmaningar i hur de lagar vi idag har vid väpnade konflikter ska användas. I krigets lagar, den internationella humanitära rätten, är skyddet av civila centralt. Distinktionsprincipen, att skilja mellan militära mål och civila, och proportionalitetsprincipen, att åtgärder inte skall överskrida det som är nödvändigt med hänsyn till ändamålet, är två hörnstenar. Mördarrobotar skulle inte ha förmågan göra den bedömning som krigets lagar kräver.

Ansvarsutkrävande

Utvecklingen av mördarrobotar leder även till utmaningar när det kommer till att utkräva ansvar. Vem ska hållas ansvarig om en robot dödar civila? Är det överbefälhavaren eller personen som programmerade den? Det finns stora risker att mördarrobotar kommer att begå brott mot mänskliga rättigheter och krigets lagar utan att det får några konsekvenser, då det inte går att utkräva ansvar. Ansvarsfrågan är viktig då den ska avskräcka från skadande av civila och ge upprättelse när brott begåtts.

Hur kommer mördarrobotar att användas?

Mördarrobotar kommer med stor sannolikhet att användas i områden där det idag redan pågår väpnade konflikter samt där internationella konflikter utspelar sig i ett annat land. Mördarrobotar är därför inte främst ett hot mot Sverige, civila i Sverige eller för högteknologiska länder. Istället är det främst i länder som själva inte utvecklar eller kommer att använda mördarrobotar, som sannolikt kommer att bli testplatser och slagfält för dessa vapen. Högteknologiska länder kan komma att använda dem i andra länder, som själva inte har teknologin, och makthavare kan komma att använda dem mot sin egen befolkning, till exempel för att förtrycka marginaliserade grupper, genom exempelvis polisbevakning.

IKFF Kamerun fruktar att Afrika kommer att bli ett experimentfält om sådana vapen utvecklas. Det är därför brådskande att ta fram ett förbud.

– Guy Feugap, IKFF Kamerun

Ett feministiskt perspektiv på mördarrobotar

Våld och väpnade konflikter kan förebyggas, de ska inte ”lösas” med ny vapenteknologi. Krig sätter samhällen i kris och leder till ökad orättvisa och diskriminering. Grupper som redan är förtryckta eller saknar makt, som kvinnor och minoritetsgrupper, blir ännu mer utsatta. Det inkluderar sexuellt och könsrelaterat våld. Att ersätta soldater med robotar betyder inte att detta våld skulle upphöra. Den som hävdar att mördarrobotar kan vara bättre i krig eftersom ”robotar inte våldtar” förstår inte syftet med sexuellt våld i konflikter. Det handlar inte om enskilda soldaters sexualitet, det är ett verktyg för att utöva makt och förnedra. Det innebär att robotar kan programmeras för att begå våldtäkter.

Mördarrobotar skulle inte göra att sexuellt våld i väpnade konflikter upphör. Dessa vapensystem ifrågasätter inte en order att sammanföra kvinnor för att våldta dem.

– Ayo Ayoola-Amale, IKFF Ghana.

Redan idag finns det en utbredd straffrihet när det kommer till könsrelaterat våld i krig, särskilt sexuellt våld. Risken för att användningen av mördarrobotar kommer att leda till brott mot mänskliga rättigheter, utan att ansvar utkrävs, är överhängande.

Robotar kan diskriminera

Egenskaper som kön, ålder och plats används redan idag för att identifiera personer, inte minst vid drönarattacker. En stor risk är att fördomar vävs in i mördarrobotar då de skulle programmeras utifrån så kallade ”målprofiler”.

Civil användning av AI, i program för exempelvis ansiktsigenkänning, har idag svårare att känna igen och identifiera personer som inte är vita rakade män, röstigenkänning har svårare att tolka kvinnors röster eller icke-nordamerikanska dialekter, och foton av människor som befinner sig i ett kök kategoriseras automatiskt som kvinnor. I USA finns det exempel på att människor nekats borgen utifrån att ett program dragit slutsatsen att en icke-vit kvinna mer troligt begår brott än en vit kvinna.

Robotar kan därmed rasifiera på samma sätt som människor eftersom de programmeras utifrån samhällets föreställningar. Dessa vapen kan också förprogrammeras med syfte att diskriminera. Mördarrobotar är därför ett direkt hot mot marginaliserade grupper.

IKFF:s arbete om mördarrobotar

IKFF är en del av den globala kampanjen för ett förbud mot mördarrobotar, Campaign to Stop Killer Robots. Genom den samarbetar vi med organisationer världen över för att driva på att internationella förhandlingar om förbud och reglering av autonomi i vapensystem inleds, och sprider kunskap om frågan.

Sedan år 2016 sitter IKFF:s generalsekreterare i utrikesministerns Folkrätts- och nedrustningsdelegation där frågan om helt autonoma vapensystem har behandlats. Där har vi fört in IKFF:s perspektiv och kunskap i de rapporter och underlag som delegationens arbetsgrupper sammanställt till utrikesministern och Utrikesdepartementet.

Vi följer Sveriges agerande i internationella forum, där Sverige inte har tagit den ledande roll som många hade hoppats på. Genom att bevaka de internationella diskussionerna kan vi kräva ansvar och handling från Sverige.

Varför ett förbud mot mördarrobotar?

Tusentals människor över hela världen arbetar med det gemensamma målet att förbjuda utvecklingen av mördarrobotar för en fredligare framtid genom Campaign to Stop Killer Robots. Målet är att förhandla fram ett så kallat förebyggande förbud, alltså ett förbud innan vapnen ens finns.

Framtagandet av ett internationellt förbud mot mördarrobotar kan stoppa utvecklingen och förhindra de risker som vapnen medför. Förbud mot särskilda vapen är en viktig del i arbetet för att förebygga väpnade konflikter och användandet av våld och för att främja fred. Det skulle även göra det svårare att utveckla vapnen då ett förbud skapar normer som stoppar investeringar samtidigt som utvecklingen av civil AI, för användning inom exempelvis sjukvård, kan fortsätta.

Många som arbetar och forskar inom AI, och därmed har djup kunskap om hur det fungerar, varnar för konsekvenserna om denna teknik beväpnas. År 2017 uppmanade 116 AI- och robotföretag FN att förbjuda mördarrobotar. Vidare har fler än 30 000 experter inom robotik och AI, tjugo tidigare mottagare av Nobels fredspris, och över 160 religiösa ledare, inklusive Desmond Tutu, krävt ett förbud.

Vad händer internationellt?

Sedan år 2014 har frågan om en reglering av utvecklingen av mördarrobotar diskuterats i FN. Det finns olika viljor om huruvida målet är ett rättsligt bindande förbud, en uppförandekod eller ingenting alls, och om regleringen endast ska kontrollera användningen av mördarrobotar eller även utvecklingen av dem. Trots samtalen har inga konkreta resultat uppnåtts på grund av motstånd från en handfull stater, särskilt Ryssland och USA (som själva utvecklar dessa vapen).

Samtidigt växer antalet länder som utrycker oro för utvecklingen. I FN:s generalförsamling år 2022 ställde sig 70 stater bakom ett uttalande om mördarrobotar. FN:s generalsekreterare António Guterres har visat stöd för en reglering av mördarrobotar, inklusive ett förbud. I oktober 2023 kommer autonoma vapen för första gången att lyftas i en resolution i FN:s generalförsamling. För mer internationella uppdateringar, besök Campaign to Stop Killer Robots.

Lär dig mer

Grejen med mördarrobotar

I vår vardag möter vi allt oftare datorer som i sitt beteende liknar människor. Datorer blir allt smartare, med egna ”hjärnor” som kan lära sig saker och fatta egna beslut med hjälp av så kallad artificiell intelligens (AI) eller maskinintelligens.

Användningen av AI är på stark uppgång inom vapenindustrin. Redan idag används vapen med viss autonomi, men i slutändan är det en människa som fattar besluten. Men nu är vapenindustrin på väg att gå ett steg längre och utveckla vapen som på egen hand kan välja ut och attackera ett mål utan någon mänsklig inblandning eller kontroll. Dessa vapen kallas för helt autonoma vapen, eller mördarrobotar.

I denna publikation får du lära dig mer om mördarrobotar utifrån etiska, juridiska och politiska perspektiv och vad vi gör för att stoppa utvecklingen. Den innehåller även diskussionsfrågor.

Ladda ner Grejen med mördarrobotar

Mördarrobotar: framtid eller fiktion?

Inom vapenindustrin märks en snabb utveckling av AI. Det senaste är helt autonoma vapen, vilket innebär vapensystem som är frånkopplad från mänsklig inblandning. Dessa så kallade ”mördarrobotar” innebär vapen som självständigt väljer ut sina mål och attackerar med ingen eller väldigt begränsad mänsklig kontroll. Redan idag finns vapen med viss autonomi, men den pågående utvecklingen tar detta ett betydande steg längre och anses därmed möjliggöra en ny generation krigsföring.

Ladda Fred&Frihet nr 1 2021

Stop killer robots – hur sverige kan driva ett effektivt förbud mot autonoma vapen

Användningen av artificiell intelligens (AI) är på stark uppgång inom försvarsindustrin. Det innebär att det inom en inte alltför avlägsen framtid finns en stor risk att helt autonoma vapen, även kallade ”killer robots”, kommer att utvecklas och användas. Sådana vapen, som har autonomi i kritiska funktioner, skulle på egen hand kunna välja ut mål och attackera utan någon form av mänsklig inblandning.

Internationella Kvinnoförbundet för Fred och Frihet, IKFF, är en del av den globala kampanjen Campaign to Stop Killer Robots som består av en koalition av 160 civilsamhällesorganisationer från 65 länder. Målet för kampanjen är att ett så kallat förebyggande förbud ska förhandlas fram, med syfte att stoppa utvecklingen. I denna rapport går vi igenom frågan utifrån olika perspektiv och beskriver hur Sverige kan arbeta för ett förbud.

Ladda ner Stop killer robots – hur sverige kan driva ett effektivt förbud mot autonoma vapen

Killer robots: regional and gendered aspects

A conversation between Dr. Ayo Ayoola-Amale, President of WILPF Ghana, and Bibiana Tanda, WILPF Sweden on killer robots.

Övrigt

  • Fredspodden #3 – IKFF:s tidigare politiska handläggare intervjuas om mördarrobotar i Svenska Freds podd
  • Webinarium på Facebook med Human Rights Watch och IKFF

Läs mer