Autonome våpensystemer – drapsroboter
Autonome våpensystemer, også kalt drapsroboter, er våpensystemer som kan identifisere, velge ut mål og angripe. uten menneskelig involvering.
Autonome våpensystemer stiller menneskeheten overfor moralske, juridiske og sikkerhetspolitiske utfordringer.
Ønsker vi en framtid der drapshandlinger overlates til en maskin?
Som medlem av kampanjen Stop Killer Robots, tror vi på ny, bindende internasjonal lov for å regulere denne typen våpen. Slik lovgiving lages av stater, men stater besår av folk som deg og meg. Vi vil vise ledere i land verden over at ny internasjonal lov er mulig og at vi forventer at de handler før det er for sent. Dette har vi fått til før, og vi må gjøre det igjen.
Nedenfor har vi samlet noen vanlige spørsmål og svar om autonome våpensystemer.
Spørsmål og svar om autonome våpensystemer
-
Hva er autonome våpensystemer?
-
Autonome våpensystemer kan identifisere, velge ut og angripe mål uten menneskelig involvering.
Autonome våpensystemer bruker sensorer og algoritmer til å avgjøre når, hvor og hva som skal angripes. De tar autonome – selvstendige - avgjørelser om hvem som skal leve og hvem som skal dø. Dette til forskjell fra for eksempel fjernstyrte droner vi har sett blitt brukt i blant annet Ukrainakrigen, hvor det er et menneske som opererer våpensystemet, og som avgjør når og hvor et angrep skal skje.
Autonome våpensystemer er programmerte til å gjenkjenne en spesifikk målprofil, for eksempel kjennetegn på en stridsvogn, et krigsskip, eller et menneske. For et autonomt våpen kan målprofilen for et menneske for eksempel være varmestråling og biometriske data som ansiktsgjenkjenning og bevegelsesmønster. Etter hvert som sensorene blir mer avanserte, øker bruksmulighetene.
Et angrep bestemmes altså av inntrykk det aktuelle systemet får gjennom diverse sensorer de er utstyrte med, prosessering av denne dataen, og en eventuell match mot en forhåndsdefinert målprofil.
En målprofil vil alltid være en forenkling av virkeligheten. Maskiners forståelse av en situasjon er helt annerledes enn hvordan mennesker forstår omgivelser og situasjoner.
-
-
Fins det en definisjon på autonome våpen som alle er enige om?
-
Ikke helt, men vi har kommet langt mot en god definisjon. Norsk Folkehjelp benytter den samme definisjonen på autonome våpen som den globale kampanjen Stop Killer Robots, som i sin tur er nesten identisk med definisjonen til Den internasjonale Røde Kors-komiteen (ICRC): autonome våpen er våpen som velger ut og angriper mål uten menneskelig involvering. Denne definisjonen baserer seg først og fremst på våpenets funksjon, da vi mener en slik tilnærming er mest hensiktsmessig i arbeidet med å få regulert disse våpensystemene.
Bakgrunnen for at vi har valgt å benytte begrepet autonome våpensystemer, er at vi ønsker å være tydelige på at omtrent alle typer våpen i prinsippet kan gjøres autonome, og at man kan bygge inn ulik grad av autonomi i mange forskjellige plattformer, det være seg droner, landbaserte roboter eller sjøbaserte systemer.
-
-
Hvilke eksempler på autonome våpensystemer fins i dag?
-
Autonomi i våpen er ikke nytt. Vi har lenge hatt autonome forsvarssystemer på for eksempel krigsskip til havs, som automatisk og autonomt kan gjenkjenne og nøytralisere for eksempel innkommende missiler. Et eksempel er det amerikanske systemet Phalanx.
Det som har endret seg den siste tiden er at autonome våpensystemer blir stadig mer avanserte, bruker kunstig intelligens, eventuelt også maskinlæring, mange forskjellige sensorer, og at de kan operere langt unna brukerne, over lang tid og dekke store geografiske områder. I denne prosessen mister vi viktig kontroll over maktbruk og spørsmål om liv og død.
Konsekvensene ved bruk at autonome våpensystemer innebærer stor risiko for å bryte krigens folkerett ved anvendelse , og er fortsatt uprøvd i stor skala. Men, autonome våpen har allerede blitt brukt i strid, for eksempel i Libya i 2021. Israel har flere autonome systemer, for eksempel droner som selv flyr inn i bygg og identifiserer mål. Land som USA, Kina, Russland, Sør-Korea og flere andre jobber iherdig med å gjøre systemer mer autonome.
Firmaer som jobber med autonome våpen inkluderer: Anduril (USA), Norinco (Kina), STM (Tyrkia), Elbit Systems (Israel), Kalashnikov Group (Russland). Ukraina jobber også med å inkludere autonomi i droner, rapportert blant annet av New York Times sommeren 2024
Oppskalering og masseproduksjon, samt at teknologien i stor grad er basert på sivil teknologi og er svært tilgjengelig og relativt sett billig i forhold til andre teknologiske kvantesprang i militærhistorien, gjør at bekymringene våre vokser, og at behovet for regulering stadig blirstørre.
Både Automated Decsision Reseach og Future of Life Institute, har databaser der autonome våpensystemer beskrives. Det er mye som er uvisst om graden av autonomi i ulike systemer, og mye holdes hemmelig.
-
-
Fins det en parallell mellom landminer og autonome våpen?
-
Ja. Landminer passer inn i definisjonen av autnome våpen over. De er den simpleste formen for autonomi i våpen. Etter at en landmine har blitt lagt ut fungerer den autonomt og vi mister kontroll over hvem som får den til å detonere, eller når. En anti-personnel landmine detonerer når den gjenkjenner en viss vekt, som i utgangspunktet skal representere et menneske. Men uten at de som har lagt minen vet hvem som blir offer. Det kan være et barn, et husdyr eller en soldat. Denne likheten gjør det særlig relevant for Norsk Folkehjelp å jobbe med atonome våpensystemer. Vi tenker også at det fins en forståelse blant stater om at anti-personnel våpensystemer som anti-personnelminer har andre risikoer og bekymringer enn anti-kjøretøyminer, og at det samme gjelder for autonome våpensystmer: det er noe annet å angripe mennesker direkte, enn militærmateriell. Vi må hegne om prinsippet om å beskytte enkeltmennesker mot våpen.
-
-
Hva er bekymringene rundt autonome våpensystemer?
-
Autonome våpensystemer kan endre krigføring for alltid. De utfordrer grunnleggende prinsipper i krigens folkerett, stiller oss overfor moralske og etiske dilemmaer og utviklingen og spredningen av slike systemer kan ha mye å si for internasjonal fred og sikkerhet framover. Dette er et av vårt tids store temaer.
Slike våpensystemer dehumaniser mennesker ved å redusere oss til datapunkter. Autonome våpen kan forsterke eksisterende diskrimineringsmønstre, for eksempel ved bruk av ansiktsgjenkjenning som favoriserer noen hudtoner og angriper andre i større grad.
Manglende menneskelig kontroll over makt er en av hovedbekymringene. Autonome våpen kan ta feil beslutninger uten menneskelig inngrep. Uforutsigbare situasjoner kan føre til utilsiktede konsekvenser, inkludert sivile tap.
Bruken av autonome våpen reiser spørsmål om ansvar og ansvarlighet ved angrep. Hvem kan holdes ansvarlig når et autonomt våpen gjør en feil, og for eksempel angriper feil mål? Og hvordan skal man opprettholde kravet om å ha en kontekstbasert forståele av situasjonen før militære styrker anvender makt hvis man flytter beslutningene om drap til maskiner?
Det er frykt for at autonome våpen kan utløse våpenkappløp og destabilisere globale maktbalanser. Økt tilgjengelighet kan også øke risikoen for at terrorgrupper eller ikke-statlige aktører får tak i kraftige og/eller mange autonome våpensystemer.
Autonome våpensystemer vil heller ikke bare bli brukt av stater som legger stor vekt på krigens regler, ansvarlighet og moral. Stater som ligger langt unna Norge i synet på menneskeverd, individets rettigheter og verdi, internasjonal humanitærrett og etikk, vil skaffe seg autonome våpensystemer.
Autonome våpen gjør at maktanvendelse kan virke mer fristende. Avansert AVS muliggjør at land som tidligere ikke hadde kapasitet til å utføre angrep langt unna eget territorium kan få denne kapasiteten. Det kan også bli vanskeligere å fordele skyld og ansvar når det kan være mulig å skjule hvem som står bak enkeltangrep utført med små og mobile systemer.
-
-
Hva sier krigens folkerett om autonome våpen?
-
Internasjonal humanitærrett (IHR), eller krigens folkerett, regulerer autonome våpensystemer gjennom de grunnleggende prinsippene i IHR, som distinksjon, proporsjonalitet og forholdsregler i angrep. Selv om autonome våpensystemer ikke er spesifikt regulert i en egen internasjonal avtale, er det konsensus rundt at enhver bruk av slike systemer må være i samsvar med IHL, akkurat som bruk av hvilke som helst andre metoder eller våpen i væpnet konflikt. Autonome våpen eksisterer ikke i et lovløst vakuum.
IHL krever at alle våpensystemer må kunne brukes på en måte som skiller mellom sivile og militære mål, og at angrepene må være proporsjonale og ta nødvendige forholdsregler for å unngå eller minimere skade på sivile. Dette innebærer at autonome våpensystemer må være underlagt en form for menneskelig kontroll for å sikre at de opererer innenfor disse rammene. Det vil for eksempel si at autonome våpensystemer som operere uforutsigbart eller uten tilstrekkelig kontroll anses som forbudt. Menneskelig kontroll er også essensielt for å sikre ansvarlighet og etterlevelse av krigens regler.
Internasjonal humanitærrett krever at for å følge loven, må de stridende gjøre kontekstavhengige juridiske vurderinger og evaluerer situasjonen kontinuerlig. Måten autonome våpen fungerer på – at brukeren ikke velger det spesifikke målet, tidspunktet eller stedet for et angrep – gjør dette vanskelig. Når kan brukere av et autonomt våpen være sikre nok på at det kun vil ramme noe som faktisk er lovlige mål på det tidspunktet, og ikke vil resultere i uforholdsmessig skade på sivile?
-
-
Hva er de etiske utfordringene ved autonome våpensystemer?
-
Bør vi la maskiner ta beslutninger om liv og død? I likhet med mange andre deler Norsk Folkehjelp en grunnleggende bekymring over å overlate slike beslutninger til sensorer og programvare.
Autonome våpen reduserer – eller risikerer til og med å fjerne – menneskelig handlekraft i beslutninger om å drepe, skade og ødelegge. Dette er en dehumaniserende prosess som undergraver våre verdier og vår felles menneskelighet. Ønsker vi en mer effektiv måte å drepe hverandre på?
Alle autonome våpen som setter menneskeliv i fare, medfører disse etiske bekymringene, men de er spesielt sterke ved våpen som er designet for å angripe mennesker direkte.
-
-
Hva er særlig problematisk med autonome våpensystemer som angriper mennesker direkte?
-
Et forbud mot såkalte anti-personnel autonme våpensystemer er sentralt i vår løsning på problemet med autonome våpensystemer. Vi vil ha et totalforbud mot at autonome våpen får angripe mennesker.
Det er fire hovedproblemer med anti-personnel autonome våpensystemer:
- Juridiske: Mennesker som deltar i krigshandlinger kan raskt skifte juridisk status, og ikke lenger være et lovlig militærmål. Beskyttelsen av personer som ikke deltar i stridigheter er en hjørnestein i internasjonal humanitærrett (IHR). En skadet stridende skal ikke drepes, stridende som overgir seg skal tas til fange, ikke drepes. En sivil som deltar direkte i stridighetene har status som lovlig mål i visse situasjoner, men ikke alle. Disse hurtige endringene i kontekst gjør at autonome våpensytstemer som leter etter og angriper mennesker har stor risiko for å drepe feil folk.
- Moralske: Anti-personnel autonome våpen stider mot grunnleggende menneskeverd. At drapshandlinger utføres uten menneskelig moralsk vurdering er et dystopisk og fremmed scenario. Et slikt scenario tar bort et menneskes forståelse av smerte, skade, lidelse og hva død betyr. Eller hva et liv er verdt. Muligheten til å drepe enkeltmennesker gjennom kaldblodige mekaniske prosesser er ikke noe menneskeheten trenger. Muligheten til å avstå fra maktbruk og drap i krig, selv i tilfeller der den teknisk sett ville vært lovlig, vil forvitre. Derfor er sensorbaserte avgjørelser om liv og død moralsk forkastelige, og noe vi bør motsette oss.
- Dehumaniserende: En maskin forstår ikke menneskers iboende verdi, og for en maskin er mennesker like lite verdt som et hvilket som helst objekt. For at autonome våpensystemer skal kunne gjenkjenne mennesker må inntrykk fra omgivelsene først reduseres til maskinlesbar data, og mennesker reduseres til en forenkling av virkeligheten som skal matches mot en målprofil. Å redusere et menneske til datapunkter for så å ende livet til dette mennesket er dehumaniserende.
- Skjevheter i kunstig intelligens: samfunnets ulikheter, antakelser og diskriminerende strukturer vil uungåelig finne veien inn i algoritmene som skal drive autonome våpensystemer. Kunstig intelligens, som ofte brukes i autonome våpen, har også store sårbarheter i hvor robust modellene er, hvor utsatte de er for å bli forvirret eller halusinere (for eksempel oppfatte ting som ikke fins eller ta grunnleggende feil om virkeligheten).
-
-
Hva mener Norsk Folkehjelp om regulering av autonome våpensystemer?
-
I Norsk Folkehjelps «Weapons Policy» finner du våre posisjoner om autonome våpen på engelsk. En oppsummering følger her:
Vi ønsker et nytt juridisk bindende instrument (avtale) mellom stater med to spor: noen forbud og solide reguleringer.
Vi tror ikke at et totalforbud mot alle autonome våpensystemer er realistisk, men grensene for bruk av autonomi må settes nå, og de må være tydelige. Dette er det stor enighet om, og Norge er blant mange stater som mener at regulering og forbud er nødvendige. Her må det politisk mot og handling til for å få enighet om disse prinsippene internasjonalt. Det som bør forbys er autonome våpensystemer som ikke når opp til standarden om meningsfull menneskelig kontroll over maktbruk. Meningsfull menneskelig kontroll betyr blant annet å forstå systemene: å kunne forutsi hvordan de vil operere, hvor pålitelige og forutsigbare de er,og hvilken kontekst de brukes i. Man må kunne stoppe systemene om nødvendig og begrense bruken i tid og rom, samt begrense hvilke målprofiler som skal finnes. Alt dette må til for å sikre menneskelig ansvarlighet over maktbruk. Vi må også få på plass et forbud mot å angripe mennesker direkte med autonome våpensystemer.
-
-
Må autonome våpen være dødelige for at vi skal bekymre oss?
-
Nei. I FN foregår det en debatt mellom stater som har pågått i over ti år om hvordan man skal forholde seg til autonome våpen. Der snakkes det om «LAWS», altså «Lethal Autonomous Weapon Systems». Flere og flere mener at man burde sløyfe «lethal» og snakke om «autonome våpensystemer» istedenfor. Det er vi i Norsk Folkehjelp enige i. Dødelighet ikke er en fornuftig indikator for om noe bør omfattes av regler eller ikke. Bruk av ikke-dødelig makt omfattes også av internasjonal humanitærrett, og vi kan enkelt forestille oss autonome våpensystemer som ikke er dødelige, men allikevel har uakseptable humanitære konsekvenser Igjen kommer vi tilbake til poenget om meningsfull menneskelig kontroll som en mer fornuftig målestokk.
Vi snakker om autonome våpensystemer, og forkorter det gjerne med AVS på norsk. Noen ganger brukes begrepet «killer robots», eller «drapsroboter» og da tenker vi på autonome våpensystemer som angriper uten meningsfull menneskelig kontroll, selv om uttrykkene autonome våpen og drapsroboter brukes om hverandre.
-
-
Hvilke politiske prosesser pågår for å regulere autonome våpen?
-
Internasjonalt har stater snakket om dette under Konvensjonen om visse konvensjonelle våpen (CCW). Dette forumet er imidlertid preget av et konsensusprinsipp, som gjør at framgangen ofte blokkeres av store militariserte land. Norge har også vært aktiv i denne debatten. Norge har sammen med flere andre land uttrykt behovet for en juridisk bindende avtale for å regulere autonome våpen. Det er også verdt å nevne at det er stor internasjonal enighet om behovet for regulering. Over 120 stater har uttrykt ønske om et juridisk bindende instrument for å regulere autonome våpen. Dette inkluderer flere europeiske land og NATO-allierte som Nederland, Belgia, Spania, Luxemburg og Portugal.
Stater har også funnet andre møtesteder for å få framgang i denne debatten, og det stater har møttes til regionale møter både i Costa Rica, Sierra Leone, Østerrike og Filippinene.
I 2024 fikk vi også en resolusjon i FN som åpner opp for at stater kan diskutere autonome våpensystemer også i FN i New York, der alle stater er medlemmer.
-
-
Er det forskjell på offensive og defensive autonome våpen?
-
Egentlig ikke. Det fins argumenter for at det er mer legitimt å bruke autonome våpensystemer til forsvar enn til angrep. I prinsippet kan dette argumentet brukes om alle våpensystemer.
Vi i Norsk Folkehjelp mener at denne forskjellen er irrelevant, og ikke burde være en del av debatten. Skillet mellom offensiv og defensiv bruk av makt er uklar og tolkes svært ulikt, og reglene i krig gjelder uansett like fullt i forsvar som i angrep.
-
-
Hva legger vi i begrepet digital dehumanisering?
-
Digital dehumanisering refererer til prosessen hvor mennesker reduseres til data, som deretter brukes til å ta beslutninger og/eller utføre handlinger som negativt påvirker deres liv. Dette er en bekymring som Norsk Folkehjelp, som en del av den globale kampanjen Stop Killer Robots, har fokusert på. Kampanjen setter søkelys på hvordan mennesker tolkes av maskiner som nuller og ettall, og advarer mot farene ved å fjerne menneskelig dømmekraft fra beslutningsprosesser.
-
-
Hva mener Norge om regulering av autonome våpen?
-
Hurdalsplattformen forplikter Regjeringen til å "ta nødvendige initiativ for å regulere utviklingen av selvstyrte våpensystemer". Dette innebærer at Norge skal være en pådriver for å sikre at konkrete forhandlinger om regulering av autonome våpen starter, og at Norge skal bruke sin erfaring med regulering av uakseptable våpen til å trekke nødvendige grenser for autonome våpen. Regjeringen har også uttrykt ambisjoner i sin nye humanitære strategi, som understreker viktigheten av å være i fremste rekke i prosesser og diskusjoner rundt regulering av bruk av nye og eksisterende våpen som autonome våpensystemer.
Norsk Folkehjelp har høye forventninger til at Norge skal klare disse målene.
-
-
Hva mener andre land?
-
For å få en oversikt over en rekke staters posisjoner referer vi for enkelhetens skyld til staters innspill til FNs Generalsekretærs rapport fra 2024. I denne rapporten ble stater spurt om å spille inn til FNs Generalsekretær på bakgrunn av en resolusjon i FNs generalforsamling fra 2023, for eksempel om hvordan de ser på spørsmålet om regulering av autonome våpen.
Hele FNs Generalsekretærs rapport kan leses her. En oppsummering av staters posisjoner kan leses her. Staters innlegg i FNs våpenkonvensjon (CCW GGE LAWS) ligger også på nett.
-
- Norsk Folkehjelp jobber for et internasjonalt lovverk som skal stanse utviklingen og forby autonome våpensystemer allerede før de finnes. Hvis vi ikke handler nå, kan det bli for sent!
- I Norge engasjerer vi oss sammen med Norges Fredslag og Amnesty Norge, og vi er alle med i den internasjonale kampanjen «Stop Killer Robots». Her kan du lese mer om kampanjen: https://www.stopkillerrobots.org/learn/