Din varukorg är för närvarande tom!
Europarådet: Förbjud autonoma mördarrobotar
Av: Kave Noori
AI gör våra liv enklare, exempelvis kan vi få hjälp dygnet runt av kundtjänstrobotar, vi kan få personliga rekommendationer och AI kan också göra sökmotorerna vi använder smartare. Smarta assistenter som Siri och Alexa använder AI för att förstå våra behov och kan ge oss information eller utföra uppgifter åt oss.
En teknisk lösning som används för ett gott syfte kan i ett annat sammanhang komma att användas för att skada människor. Exempelvis kan den algoritm för ansiktsigenkänning som du använder för att låsa upp din smartphone även komma att användas av en mördarrobot för att avgöra om personen som står framför den är en civilperson eller en soldat från fienden som ska skjutas.
Än så länge finns det inte några fullfjädrade mördarrobotar som Terminator som går runt och skjuter människor. Däremot finns det redan halv-autonoma vapensystem som exempelvis används i gränskontroller.
Människorättsorganisationer är oroade över att mödarrobotar kan komma att ta livet av fel person. Det finns dokumenterade fall där ansiktsigenkänningsteknik har svårt att känna igen ansikten från minoritetsgrupper i mindre allvarliga situationer såsom en hemtentamen för högskolestudenter.
Den 15 november 2022 uppmanade utskottet för rättsliga frågor och mänskliga rättigheter i Europarådets parlamentariska församling att det internationella samfundet bör utarbeta regler om dödliga autonoma vapensystem (Lethal Autonomous Weapons Systems, LAWS).
Utskottet förespråkar en reglering som skulle förbjuda LAWS som opererar helt utan mänsklig ledning och utan en ansvarig befälsordning (chain of command). Utskottet anser att användningen av sådana system bryter mot befintlig internationell rätt.
Utskottet uppmärksammar att framväxten av dödliga autonoma vapensystem har väckt oro bland många stater och det civila samhället. 54 ideella organisationer har lanserat en kampanj för ett förebyggande förbud mot forskning och utveckling av denna nya teknik och mot användningen av vad de kallar ”mördarrobotar”. Även Europaparlamentet har antagit ett principiellt ställningstagande mot dödliga autonoma vapensystem genom en resolution den 12 september 2018.
Parlamentarikerna stöder framtagandet av en internationell konvention om dödliga autonoma vapensystem (LAWS) i syfte att säkerställa tillräcklig mänsklig kontroll och ansvarsskyldighet. Utskottet anser att den bästa platsen för att komma överens om en ny konvention är konferensen för de stater som är parter till konventionen om vissa konventionella vapen (Convention on Certain Conventional Weapons, CCW) och dess grupp av regeringsexperter (Group of Government Experts, GGE). De föreslår också att en icke-bindande uppförandekod utarbetas under tiden.
Vad är dödliga autonoma vapensystem?
Enligt rapporten kan dödliga autonoma vapensystem välja ut och angripa enskilda mål individuellt och självständigt utan mänsklig inblandning. Strategiska militära beslut som annars fattas av människor fattas av en maskin. Mänskliga beslut blir begränsade till de inledande faserna som programmering av roboten och beslutet att skicka ut den på krigsfältet; under operationer finns det ingen mänsklig kontroll, förutom en eventuell allmän fjärrstyrningsfunktion som exempelvis kan inaktivera roboten.
Utskottet noterar vidare att en del människor ser utvecklingen av dödliga autonoma vapensystem som en ny militär revolution. Samtidigt pågår en kapprustning då militärmakter som inte investerar i denna nya teknik riskerar att hamna på efterkälken.
I utskottets rapport konstateras att användningen av dödliga autonoma vapensystem (LAWS) kan vara förenlig med internationell humanitär rätt om de är utformade och programmerade för att uteslutande angripa militära mål. Enligt internationell rätt måste en stat som utför en attack först bedöma om attacken är proportionerlig. Bedömningen om en attack är proportionerlig baseras dock på mänskliga värderingar och logik och tolkningar, inte baserat på siffror eller tekniska indikatorer.
Utskottet konstaterar att etiska överväganden kring användningen av dödliga autonoma vapensystem regleras av internationell rätt och uteslutande kräver mänsklig bedömning. Kommittén konstaterar också att om dessa system ska vara förenliga med den internationella rätten, särskilt Europakonventionen, måste användningen av dem regleras tydligt.
Rapport från ”världstoppmötet om artificiell intelligens” i Nederländerna
Artikelförfattaren deltog i World AI-summit den 12 oktober 2022 och lyssnade på en paneldiskussion med Sue Black Obe, moderator, professor i datavetenskap och teknikevangelist vid Durham College, Verity Coyle från Amnesty International och Ioana Puscas från FN:s institut för nedrustningsforskning (UNIDIR).
Verity Coyle anser att dödliga autonoma vapensystem är olagliga enligt gällande internationell rätt och är oroad över bristen på ansvarsutkrävande för dessa system. Hon hävdar att människor är bättre på att fatta beslut om att ta människoliv eftersom det enligt internationell rätt finns ett system där man kan ställa den som fattar militära beslut till svars. Om en mördarrobot begår ett fel så finns inget motsvarande system som kan ställa roboten till svars.
Puscas hävdar däremot att ansvarsutkrävandet är en svårare fråga när det gäller autonoma vapen eftersom det finns flera potentiellt ansvariga parter. Om en mödar robot begår ett krigsbrott blir frågan om det är tillverkaren som programmerat roboten, de som köpt in vapensystemet eller personen som bestämt sig för att skicka ut roboten i krig som ska straffas. Med konventionella vapen är det lättare att fastställa vem som ligger bakom beslutet att använda dem.
Verity Coyle diskuterar också farorna med autonoma vapensystem och kampanjen för att förbjuda dem. Hon konstaterar att dessa vapen inte bara används i väpnade konflikter utan även i en mängd olika civila situationer där de kan orsaka skada. De används även av polisen och gränsbevakningen. Det finns också en oro för att en utbredd användning kan leda till att dessa vapen kommer i händerna på kriminella gäng. Kampanjen efterlyser att kampen mot dessa vapen bedrivs på två fronter: en som förbjuder användningen av vissa typer av teknik och en som förbjuder utvecklingen och spridningen av dessa vapen.
IIoana Puscas säger att FN:s institut för nedrustningsforskning (UNIDIR) fokuserar på forskning om riskerna med att använda AI i militära system och autonoma vapensystem. Det studerar aspekter som mänsklig kontroll, datamängder och förklarbarhet för att förstå riskerna. Hon sade att FN har studerat flera utmaningar i samband med användningen av artificiell intelligens i vapensystem, bland annat frågor som rör data och förklarbarhet. Hennes arbete har visat att det finns många risker i samband med användningen av dessa vapen och att de bör tas på stort allvar.
Läs mer
Konventionen om vissa konventionella vapen
Europaparlamentets resolution av den 12 september 2018 om autonoma vapensystem