Vad är Pentagons uppdaterade policy för mördarrobotar?

Pentagon har utfärdat en uppdatera till dess direktiv 3000.09, som täcker vad de benämner Autonomi i vapensystem och andra ringer 'mördare robotar.' Aktuella drönare som flygvapnet och CIA MQ-9 Reapers styrs av fjärrkontroll: en människa sitter framför en videoskärm identifierar mål på marken tusentals mil bort, placerar dem i hårkorset och släpper en Hellfire missil eller annat vapen. Autonoma vapen är olika: de väljer sina egna mål utan mänsklig inblandning. Det behövs tydliga regler om när och hur de kan användas, och det nya direktivet för dem ett steg närmare.

För tio år sedan när den första versionen av 3000.09 släpptes såg autonoma vapen ut som science fiction. Nu är de väldigt verkliga. Det hävdade FN Turkiskt levererade drönare attackerade mål autonomt i Libyen 2020 och Ryssland sätter nu ut svävande ammunition i Ukraina med autonom förmåga.

Många aktivister, som Kampanj för att stoppa mördarrobotar, vill ha ett direkt förbud mot autonoma vapen, och insisterar på att alla avlägsna vapen förblir under meningsfull mänsklig kontroll alltid. FN har diskuterat hur man ska göra kontrollera sådana vapen i många år.

Men som det nya direktivet klargör, håller Pentagon sig till en annan linje.

"DoD har konsekvent motsatt sig en policystandard om 'meningsfull mänsklig kontroll' när det gäller både autonoma system och AI-system," Gregory Allen, direktör för Project on AI Governance på Centrum för strategiska och internationella studier, sa till mig. "Den föredragna DoD-termen för konst är "lämpliga nivåer av mänskligt omdöme", vilket återspeglar det faktum att i vissa fall - autonoma övervakningsflygplan och vissa typer av autonoma cybervapen, till exempel - kan den lämpliga nivån av mänsklig kontroll vara liten eller ingen .”

Vilka autonoma vapen skulle vara tillåtna under vilka omständigheter? Allen anser att den tidigare versionen av direktivet var så otydlig att den avskräckte all utveckling på detta område.

"Förvirringen var så utbredd - inklusive bland vissa DoD senior ledare - att tjänstemän avstod från att utveckla vissa system som inte bara var tillåtna av policyn, utan också uttryckligen undantagna från kravet på senior granskning", säger Allen.

Inte ett enda vapen har lämnats in till granskningen av autonoma vapen i den ursprungliga 3000.09 under de tio år som gått sedan den publicerades.

Allen skrev en uppsats om detta för CSIS förra året, beskrev fyra områden som behövde arbete – att formellt definiera autonoma vapensystem, säga vad "AI-aktiverat" betyder för policyn, hur granskningsprocessen kommer att hantera omskolning av maskininlärningsmodeller och klargöra vilka typer av vapen som måste gå igenom den mödosamma granskningen.

"DoD har implementerat dem alla", säger Allen.

I princip bör detta då säkerställa vad DoD uttrycker "starkt och fortlöpande engagemang för att vara en transparent global ledare när det gäller att upprätta ansvarsfulla riktlinjer för militär användning av autonoma system."

Det finns dock några tillägg som kan ses som kryphål, till exempel ett undantag från senior granskning för autonoma vapen som försvarar drönare som inte riktar sig mot människor (”antimaterialvapen”) och som skulle tillåtas rikta in missiler, andra drönare och eventuellt andra system.

"Ordet 'försvara' gör massor av arbete," Zak Kallenborn, berättade en politikstipendiat vid Schar School of Policy and Government vid George Mason University för mig. "Om en drönare opererar i fiendens territorium kan nästan vilket vapen som helst tolkas som att "försvara" plattformen."

Kallenborn noterar också att även om effektivt autonoma vapen som landminor har använts i över ett sekel, förändras landskapet snabbt på grund av framstegen inom AI och särskilt maskininlärning. Dessa har gett upphov till system som är mycket kapabla, men tekniskt spröda – när de misslyckas, misslyckas de spektakulärt på sätt som ingen människa skulle, till exempel att missta en sköldpadda för ett gevär.

"Autonomi genom AI förtjänar definitivt mer oro, med tanke på sprödheten och bristen på förklaring av för närvarande dominerande tillvägagångssätt", säger Kallenborn.

Uppdateringen är inte stor. Men det visar Pentagons fortsatta engagemang för att utveckla effektiva autonoma vapen och en tro de kan följa internationell humanitär rätt — särskilja civila från militär personal, försöka undvika att skada civila och endast använda proportionerligt och nödvändigt våld.

Kampanjer tror att AI inte kommer att ha den nödvändiga förståelsen för att göra moraliska bedömningar i krigstid och riskerar att skapa en värld där krig är automatiserat och människor inte längre har kontroll. Andra tror att den amerikanska militären kommer att bli det överträffat av motståndare med autonoma vapen om inte AI är inkorporerat på en taktisk nivå, och det är för mycket mänskligt engagemang saktar ner militära robotar.

Argumentationen kommer sannolikt att fortsätta även när autonoma vapen börjar dyka upp, och resultaten kommer att följas noga. Hur som helst verkar det som att mördarrobotarna kommer.

Källa: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/