Mördarrobotar
STOPPA MÖRDARROBOTAR
Beslut om liv och död får aldrig delegeras till en maskin. Autonoma vapensystem – mördarrobotar – hotar människor, fred och säkerhet.
Just nu utvecklas tekniken i en rasande fart. Vi kräver ett internationellt förbud mot mördarrobotar – innan det är för sent!
Vad är mördarrobotar och vad är problemet med dem?
Mördarrobotar är även kända som autonoma vapensystem eller dödliga autonoma vapen. De är avancerade robotar med programvara som gör att de självständigt kan identifiera och attackera mål, utan behov av mänsklig inblandning. Flera vapensystem har redan viss grad av autonomi eller självstyrning. Skillnaden är om det är människa eller maskin som fattar det avgörande beslutet att attackera människor.
Mördarrobotar innebär en digital avhumanisering
Maskiner som kan attackera människor behöver läras upp i att identifiera människor. De samlar in information genom sensorer, och programvara tolkar informationen för att skapa en bild av vad maskinen ”ser”. En människa skannas av en maskin och omvandlas till data. Det är en digital avhumanisering.
Avhumanisering är avgörande för att kunna skada och döda andra människor. För en maskin är vi aldrig ens mänskliga till att börja med, eftersom en maskin inte kan förstå mänsklighet. Att använda autonoma vapensystem för att attackera människor innebär en total digital avhumanisering av dem. Det ökar risken för våld och väpnade konflikter.
Mördarrobotar är automatisering av dödligt våld
Automatisering av våld, från engelskan automated harm, är när maskiner fattar beslut som skadar människor. Det kan vara snudd på obetydligt, som när en mobiltelefon inte känner igen ditt ansikte och fattar beslutet att inte låsa upp din telefon. Det kan vara strukturellt våld, som när algoritmer fattar beslut baserat på förtryckande strukturer. I USA har vita kvinnor släppts mot borgen i högre grad än icke-vita, eftersom ett program bedömde att icke-vita kvinnor mer troligt skulle begå brott. Beslutet en mördarrobot ska fatta är om den ska döda dig eller inte. Det är ett oåterkalleligt beslut som aldrig ska få fattas av en maskin.
Läs mer om mördarrobotar (på engelska): ”A WILPF Guide to Killer Robots”
Vad är lösningen?
Världens stater behöver förhandla fram och anta ett juridiskt bindande internationellt avtal. Avtalet bör ha två nivåer, en med förbud och en med regleringar.
Nivå 1: Förbud
Ett totalförbud av mördarrobotar som identifierar människor som måltavlor, eller som inte kan användas utan meningsfull mänsklig kontroll.
Ett sådant förbud motverkar digital avhumanisering eftersom maskiner som inte får attackera människor inte heller behöver läsa av och kategorisera människor. Det gör att människor alltid måste behålla kontroller och ansvaret över beslut om liv och död.
Nivå 2: Regleringar
De autonoma vapensystem som inte förbjuds behöver regleras för att säkerställa meningsfull mänsklig kontroll. Det görs genom regleringar av systemens förutsägbarhet, begriplighet, och begränsningar i tid och rum.
- Förutsägbarhet. De som använder autonoma vapensystem behöver kunna förutse vilka effekter systemet kommer ha, som att det inte kommer att döda civila människor eller genomföra attacker som gör oproportionerligt stor skada i relation till den militära nyttan. Det är grundläggande enligt krigets lagar.
- Begriplighet. Människor behöver även kunna förstå och förklara hur systemen fungerar, så att det går att förstå vad som blivit fel om något oförutsett sker. Det är också viktigt för möjligheten till ansvarsutkrävande.
- Begränsningar. Världen är komplex och förändras på oförutsägbara sätt. För att det ska gå att förutsäga effekterna av ett autonomt systems agerande behöver tiden och området de agerar inom begränsas, så att komplexiteten minskar.
Mördarrobotar skulle inte göra att sexuellt våld i väpnade konflikter upphör. Dessa vapensystem ifrågasätter inte en order att sammanföra kvinnor för att våldta dem.
Ayo Ayoola-Amale
IKFF Ghana
Feministisk kritik av mördarrobotar: en genusanalys
Feminister mot mördarrobotar
Varför ska feminister vara emot mördarrobotar?
Mördarrobotar är patriarkatets senaste uppfinning för att utöva makt och våld.
Maskiner beskrivs ofta som rationella, och därmed överlägsna människor som är känslostyrda. Rationella maskiner påstås fatta snabba, korrekta och opartiska beslut. Samma sak har alltid sagts om rationella män och känslostyrda kvinnor. Det har aldrig varit sant.
Vilka kommer att använda mördarrobotar? Och vilka kommer de att användas mot? Det måste vi som feminister fråga oss. Vi måste stå upp mot det våld och förtryck som mördarrobotar kommer att innebära.
Genus, rasism och digital avhumanisering
Maskiner använder sensorer för att samla in data om oss, och sedan kategoriseras denna data utifrån hur de har programmerats. Processen, där maskiner inte ser oss som fullständiga och komplexa individer med mänskliga värden är en digital form av avhumanisering. Människor reduceras till en serie svar på binära ja/nej-frågor.
Feminister och andra rättviseaktivister arbetar för att människor ska bli bemötta bortom de kategorier vi blir insorterade i. Vi vill ha lika rättigheter i livet oavsett våra könsuttryck, hudfärg, ålder, familj och plats. Mördarrobotar gör det motsatta och reducerar människor till enbart kategorier.
Avhumanisering är en förutsättning för att använda våld mot andra människor. Det är en central del av militär träning, och väpnade konflikter och folkmord föregås av propaganda som avhumaniserar vissa grupper. Kvinnors, flickors och hbtqi+-personer avhumaniseras och beskrivs som mindre värda och mindre mänskliga för att rättfärdiga patriarkalt våld och förtryck. Med mördarrobotar är avhumaniseringen inbyggd. Mördarrobotar programmeras för att uppnå ett mål, och kommer att använda våld om det främjar det.
Automatisering av våld och förtryck
Automatisering av våld (från engelskans automated harm) innebär att beslut om att använda våld delegeras till automatiserade system, såsom datorprogram eller maskiner.
Mördarrobotar samlar in data om oss utan vårt samtycke eller kontroll, och utan att vi kan påverka vilka konsekvenser det kan ha för oss. Vi vet inte om den data som samlas in kommer kategorisera oss som civila och skyddsvärda, eller som fiender och kombattanter.
Automatiseringen kan innebära olika typer av våld. Ett automatiskt system kan, i värsta fall, leda till direkt våld genom att fatta ett beslut om att döda någon. Det kan även leda till att strukturellt våld, strukturer i samhället som skapar och upprätthåller orättvisor och lidande, upprätthålls och förstärks. Exempelvis kan maskininlärda eller inprogrammerade fördomar i ansökningssystem nekar människor jobb och försörjningsmöjligheter, bostäder, sociala stöd, visum och handlingar, utifrån hur de kategoriseras. Rasism, sexism, funkofobi, homofobi, fattigdomsförakt och andra förtryckande strukturer blir automatiskt.
Att lösa väpnade konflikter
Våld och väpnade konflikter kan förebyggas, de ska inte ”lösas” med ny vapenteknologi. Krig sätter samhällen i kris och leder till ökad orättvisa och diskriminering. Grupper som redan är förtryckta eller saknar makt, som kvinnor och minoritetsgrupper, blir ännu mer utsatta.
Vapensystem handlar alltid om att hota, skrämma, skada eller döda människor. De utvecklas och används av aktörer med makt, av mansdominerade organisationer som militären. De upprätthåller de strukturer av militarism och könsmaktsordning som gör att krig fortsätter ses som en möjlig ”lösning” på problem. Detta står i vägen för att utveckla andra lösningar som kan förebygga krig och våld. Mördarrobotar gör stater bättre på krig, inte på fred.
Patriarkala argument för mördarrobotar – och våra feministiska svar
”Maskiner våldtar inte”
”Maskiner våldtar inte”
Jo, om de blir tillsagda.
Att ersätta soldater med robotar betyder inte att sexuellt våld skulle upphöra. Den som hävdar att mördarrobotar kan vara bättre i krig eftersom ”robotar inte våldtar” förstår inte syftet med sexuellt våld i konflikter. Det handlar inte om enskilda soldaters sexualitet, det är ett verktyg för att utöva makt och förnedra. Det innebär att robotar kan programmeras för att begå våldtäkter. Mördarrobotar kan också användas för att sammanföra en viss grupp människor, så att de kan låsas in, torteras, våldtas och dödas.
Redan idag finns det en utbredd straffrihet när det kommer till könsrelaterat våld i krig, särskilt sexuellt våld. Risken för att användningen av mördarrobotar kommer att leda till brott mot mänskliga rättigheter, utan att ansvar utkrävs, är överhängande.
”Maskiner har inga fördomar”
”Maskiner har inga fördomar och diskriminerar inte”
Maskiner skapas av människor med medvetna och omedvetna fördomar, som byggs in i maskinerna eller utformar hur maskinerna designas.
Egenskaper som kön, ålder och plats används redan idag för att identifiera personer, inte minst vid drönarattacker. En stor risk är att fördomar vävs in i mördarrobotar då de skulle programmeras utifrån så kallade ”målprofiler”.
Civil användning av AI, i program för exempelvis ansiktsigenkänning, har idag svårare att känna igen och identifiera personer som inte är vita rakade män, röstigenkänning har svårare att tolka kvinnors röster eller icke-nordamerikanska dialekter, och foton av människor som befinner sig i ett kök kategoriseras automatiskt som kvinnor. I USA finns det exempel på att människor nekats borgen utifrån att ett program dragit slutsatsen att en icke-vit kvinna mer troligt begår brott än en vit kvinna.
Robotar kan därmed rasifiera på samma sätt som människor eftersom de programmeras utifrån samhällets föreställningar. Dessa vapen kan också förprogrammeras med syfte att diskriminera. Mördarrobotar är därför ett direkt hot mot marginaliserade grupper.
”Maskiner är rationella”
”Maskiner är helt rationella och fattar därför bättre beslut”
Vad som är rationellt eller inte beror på vilka mål och syften som är utgångspunkt. Rationalitet har i århundraden kopplats till maskulinitet och män. Kvinnor och femininitet har kopplats till känslomässighet. Män har haft maktpositioner och bestämt vad som anses rationellt, ofta utifrån vad som håller kvar dem vid makten.
De som utmanar dem som har makt har avfärdats som irrationella och känslostyrda. En robot ses som totalt rationell eftersom den saknar förmåga till känslor. Rationalitet är inte samma sak som omdöme. Omdöme och konsekvensanalys av hur människor påverkas av ett beslut kräver förståelse av mänskliga känslor och erfarenheter. Rationalitet är också kontextberoende och målstyrd. Vad som uppfattas som rationellt varierar beroende på om målet exempelvis är att vinna ett krig eller att förebygga en väpnad konflikt.
”Färre soldater dör”
”Med maskiner på slagfältet behöver färre soldater dö”
Det här kan kallas ”arbetsmiljöargumentet”. De egna soldaterna kan skyddas och robotar skickas ut istället. Vissa människor skyddas på bekostnad av att andra människor utsätts för våld och förnedring av en maskin. Det ökar skillnaderna ännu mer mellan de människor och stater som använder våld för att få igenom sin vilja, och de som drabbas av det våldet.
Att byta ut soldater mot robotar innebär också att tröskeln för att starta krig sänks. Att förlora egna soldater är en ”kostnad” länder måste ta i beaktning, som gör att måste finnas någon slags stöd från befolkningen. Avsaknaden av denna ”kostnad” kan leda till fler krig.
”Nya vapen är nödvändiga”
”Nya vapen är nödvändiga för den nationella säkerheten”
”Det var inte jag som började” eller ”det är inte mitt fel”-argumentet. Stater menar att eftersom andra stater eller aktörer kan utveckla nya typer av vapen, måste de också göra det för att inte bli sårbara. Det här leder till kapprustning och till att resurser slösas bort i vapenindustrin istället för att gå till sådant som skapar gemensam säkerhet i världen, som att investera i diplomati och goda relationer mellan stater och i att skapa gemensamma lösningar som ömsesidig avrustning, fredliga konfliktlösningsmetoder och att stoppa klimatkrise
”De finns inte”
”Varför förbjuda något som inte ens finns?”
Många vapenförbud har kommit till efter att offer för vapen trätt fram och med sina kroppar, eller vid gravarna för dem som dött, visat på vapnens konsekvenser för människor. Vapnen, vare sig det är biologiska eller kemiska vapen, kärnvapen, landminor eller klustervapen, beskrivs först som nödvändiga för nationell säkerhet. Vi är inte beredda att offra människors liv för att ta reda på exakt hur farliga autonoma vapensystem är. Det bästa är om vi aldrig får veta det, att de aldrig tas i bruk.
Feminister och fredsaktivister har alltid ifrågasatts när vi vill nedrusta eller förbjuda vapen. Antingen får vi höra att vi oroar oss i onödan och överdriver riskerna, eller att ett förbud ändå inte kommer antas eller fungera. Det är ett sätt att förlöjliga och motarbeta förändring. Hittills har historien alltid gett oss rätt.
Vad gör IKFF?
1
Driver Campaign to Stop Killer Robots (CSKR) i Sverige
IKFF är en del av den globala kampanjen för ett förbud mot mördarrobotar, Campaign to Stop Killer Robots.
Genom den samarbetar vi med organisationer världen över för att driva på att internationella förhandlingar om förbud och reglering av autonomi i vapensystem inleds, och sprider kunskap om frågan.
2
Bevakar & påverkar Sveriges agerande
IKFF bevakar de internationella förhandlingarna om autonoma vapensystem, och Sveriges agerande.
Vi jobbar för att Sverige ska ta ställning för och aktivt arbeta för ett förbud mot mördarrobotar.
3
Upplyser & utbildar
IKFF utvecklar policy, skriver underlag, rapporterar från förhandlingar och om vad som händer i frågan om mördarrobotar. Vi tillhandahåller information till medier, tjänstepersoner och beslutsfattare.
Vi utbildar, föreläser och arrangerar studiecirklar för att öka kunskap och engagemang om mördarrobotar och för ett förbud.
Vad kan jag göra?
- Bli medlem! Då stödjer du arbetet och får inbjudningar till seminarier och träffar om mördarrobotar.
- Redan medlem? Värva en till! Ju fler vi är desto starkare blir vår röst.
- Dela våra inlägg i sociala medier så att fler får upp ögonen för frågan.
- Samla vänner eller kanske studiekamrater till en studiecirkel. Börja med Grejen med mördarrobotar och fortsätt med Mördarrobotar: Framtid eller Fiktion? och Stop killer robots: Hur Sverige kan driva ett effektivt förbud mot autonoma vapen.
- Kontakta dina lokala politiker och berätta för dem om mördarrobotar och kräv att deras parti tar ställning för ett förbud.
Frågor och svar
Vad är det formella namnet på mördarrobotar?
Det mest hjälpsamma är att säga det minst krångliga: autonoma vapensystem. Eller autonomi i vapensystem.
Den formella benämningen som används inom FN är ”framväxande teknologier inom området dödliga autonoma vapensystem” (emerging technologies in the area of Lethal Autonomous Weapons Systems). Det förkortas LAWS. Eftersom ett vapens dödlighet är en effekt av användningen, inte en inneboende mekanism, har många slutat säga ”dödliga” och säger bara autonoma vapensystem (Autonomous Weapons Systems, AWS).
Vissa stater och aktörer säger istället ”helt autonoma vapensystem” eller autonoma vapensystem som står ”fullständigt” utanför mänsklig kontroll (completely outside human control). Det försvårar diskussionerna. Autonomi är funktioner som koppas till vapensystem. Autonomi finns på en skala, och många system kan användas med högre eller lägre grad av autonomi. Ett helt autonomt system som står fullständigt utanför mänsklig kontroll framstår som någon form av Terminator-maskin där människor varken byggt, kodat eller startat maskinen. Att prata om helt eller fullständigt autonoma system kan vara sätt att förhala eller försvåra diskussionerna.
Är mördarrobotar och autonoma vapensystem samma sak?
Ja. Vi som vill förbjuda inhumana vapen kallar dem för mördarrobotar (killer robots). Vårt krav på staterna är att totalförbjuda autonoma vapensystem som genom data identifierar människor som måltavlor. Ordet mördarrobotar beskriver just maskiner som självständigt kan döda människor.
Finns mördarrobotar?
De vapen vi kallar mördarrobotar är under utveckling, förutom en instans där den turkiska mördarroboten ”Kargu” enligt en FN rapport användes i Libyen. Dock så finns det en glidande skala av autonoma funktioner i vapen, och en viss autonomi finns i existerande vapen redan idag.
Du som vill veta mer om tekniken (och vem som producerar mördarrobotar) kan läsa Stop Killer Robot’s rapport av Daan Kayser (på engelska): ”Increasing autonomy in weapons systems: 10 examples that can inform thinking”
Hur används mördarrobotar idag?
Vapen med vissa autonoma funktioner används i dagens krigföring för olika ändamål. Autonoma drönare och stridsfordon används i militära operationer för att utföra olika uppgifter, inklusive spaning, bevakning, och till och med direkta attacker mot fiender.
Mördarrobotar, som kan ta autonoma beslut om våldshandlingar, kommer med stor sannolikhet att användas i områden där det idag redan pågår väpnade konflikter samt där internationella konflikter utspelar sig i ett annat land. Mördarrobotar är därför inte främst ett hot mot Sverige, civila i Sverige eller för högteknologiska länder.
Istället är det främst i länder som själva inte utvecklar eller kommer att använda mördarrobotar, som sannolikt kommer att bli testplatser och slagfält för dessa vapen.
Högteknologiska länder kan komma att använda dem i andra länder, som själva inte har teknologin, och makthavare kan komma att använda dem mot sin egen befolkning, till exempel för att förtrycka marginaliserade grupper, genom exempelvis polisbevakning.
Var kan jag läsa mer?
Introduktioner till mördarrobotar:
- Mördarrobotar: Framtid eller Fiktion? (Fred & Frihet)
- A WILPF Guide to Killer Robots (engelska)
- Fully Autonomous Weapons (engelska)
Fördjupande resurser:
- Stop killer robots: Hur Sverige kan driva ett effektivt förbud mot autonoma vapen
- Negotiating a Treaty on Autonomous Weapons Systems – The Way Forward (engelska)
- Meaningful Human Control, Artificial Intelligence and Lethal Autonomous Weapons (engelska)
- Stopping Killer Robots: A Guide for Policy Makers (engelska)