AI-etik och AI-lag ställer svåra frågor om det nya löftet av dansande robottillverkare som säger att de kommer att avvärja AI-vapen

Du kanske förra veckan såg i nyheterna eller märkte på sociala medier det aviserade löftet från vissa robottillverkare om deras påstådda mål att undvika AI-vapen av robotar för allmänt bruk. Jag kommer att gå igenom detaljerna om ett ögonblick, så oroa dig inte om du inte hade fått reda på saken.

Reaktionen på detta tillkännagivande har varit snabb och, kanske som vanligt i vårt polariserade samhälle, varit både lovordande och ibland hånfullt kritisk eller rent av otäckt skeptisk.

Det är en berättelse om två världar.

I en värld säger vissa att det är precis vad vi behöver ansvarig AI-robotutvecklare att deklarera.

Tack och lov för att du är på rätt sida av en fråga som gradvis kommer att bli mer synlig och mer oroande. De där söta dansande robotarna är oroande eftersom det är ganska lätt att få dem att bära vapen och användas på de värsta sätt (du kan kolla upp detta själv genom att gå till sociala medier och det finns rikligt med videor som visar upp dansande robotar beväpnade med maskingevär och andra vapen).

Den andra sidan av detta mynt säger att det så kallade löftet inte är något annat än ett marknadsförings- eller PR-trick (som en sidoanteckning, är det någon som känner till skillnaden mellan ett löfte och en donation?). Hur som helst, tvivlarna uppmanar att detta är otyglad dygdsignalering i samband med dansande robotar. Du förstår, att beklaga det faktum att robotar för allmänt bruk kan beväpnas är verkligen ett värdefullt och seriöst eftersökt övervägande, men att bara hävda att en tillverkare inte kommer att göra det är troligen ett ihåligt löfte, insisterar vissa.

Sammantaget tar hela ärendet upp en ganska rejäl uppsättning AI-etik och AI-lagar. Vi kommer noggrant att packa upp ämnet och se hur det här är en dubbel slump av ett etiskt och juridiskt AI-morass. För min pågående och omfattande bevakning av AI-etik och AI-lag, se länken här och länken här, bara för att nämna några.

Jag kommer också under hela denna diskussion att hänvisa till mina tidigare analyser av farorna med AI-vapen, såsom min djupgående bedömning vid länken här. Du kanske vill ta en titt på den diskursen för ytterligare detaljer bakom kulisserna.

Det öppna brevet som öppnar en burk maskar

Låt oss börja denna analys med att göra en noggrann steg-för-steg-utforskning av det öppna brevet som nyligen publicerades av sex relativt välkända avancerade robottillverkare, nämligen Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics och Unitree. I det stora hela gissar jag att du främst har sett Boston Dynamics-robotarna, som de som rullar runt på alla fyra. De ser ut som om de är hundlika och vi njuter av att se dem springa runt.

Som jag tidigare och upprepade gånger förvarnat, är användningen av sådana "dansande" robotar som ett sätt att övertyga allmänheten om att dessa robotar är söta och bedårande tyvärr missvisande och hamnar i de rikliga fallgroparna att antropomorfiera dem. Vi börjar tänka på dessa härdade metall- och plastbitar som om de är motsvarigheten till en gosig lojal hund. Vår vilja att acceptera dessa robotar bygger på en falsk känsla av säkerhet och trygghet. Visst, du måste tjäna pengar och oddsen för att göra det förbättras genom att paradera runt dansande robotar, men detta utelämnar eller till synes döljer det verkliga faktumet att dessa robotar är robotar och att AI:n som styr robotarna kan skapas felaktigt eller gå snett.

Tänk på dessa konsekvenser av AI (utdrag från min artikel om AI-vapen, som finns på länken här):

  • AI kan stöta på ett fel som gör att den hamnar på avvägar
  • AI kan bli överväldigad och låsas utan att svara
  • AI kan innehålla utvecklarbuggar som orsakar oregelbundet beteende
  • AI kan vara skadad med implanterat evildoer-virus
  • AI kan tas över av cyberhackers i realtid
  • AI kan anses vara oförutsägbar på grund av komplexiteten
  • AI kan beräkningsmässigt fatta "fel" beslut (relativt)
  • Annat

Det är punkter när det gäller AI som är av den typ som verkligen skapas i början för att göra rätt sak.

Utöver dessa överväganden måste du inkludera AI-system skapade från starten för att göra dåliga saker. Du kan ha AI som är gjord för fördelaktiga ändamål, ofta kallad AI For Good. Du kan också ha AI som är avsiktligt gjord för dåliga syften, känd som AI för dåligt. Dessutom kan du ha AI For Good som är korrumperat eller förvandlats till att bli till AI för dåligt.

Inget av detta har förresten något att göra med att AI blir sentient, vilket jag nämner eftersom vissa hela tiden utbrister att dagens AI antingen är sentient eller på gränsen till sentient. Inte så. Jag tar isär de myterna i min analys på länken här.

Låt oss då se till att vi är på samma sida om arten av dagens AI.

Det finns ingen AI idag som är kännande. Vi har inte det här. Vi vet inte om sentient AI kommer att vara möjligt. Ingen kan lämpligen förutsäga om vi kommer att uppnå sentient AI, och inte heller om sentient AI på något sätt mirakulöst spontant kommer att uppstå i en form av beräkningskognitiv supernova (vanligtvis kallad singulariteten, se min bevakning på länken här).

Den typ av AI som jag fokuserar på består av den icke-kännande AI som vi har idag. Om vi ​​ville spekulera vilt om sentient AI, skulle den här diskussionen kunna gå i en radikalt annan riktning. En kännande AI skulle förmodligen vara av mänsklig kvalitet. Du skulle behöva tänka på att den kännande AI är den kognitiva motsvarigheten till en människa. Mer så, eftersom vissa spekulerar att vi kan ha superintelligent AI, är det tänkbart att sådan AI kan bli smartare än människor (för min utforskning av superintelligent AI som en möjlighet, se täckningen här).

Jag skulle starkt föreslå att vi håller saker nere på jorden och överväger dagens beräkningslösa AI.

Inse att dagens AI inte kan "tänka" på något sätt i nivå med mänskligt tänkande. När du interagerar med Alexa eller Siri kan samtalskapaciteten tyckas likna mänsklig kapacitet, men verkligheten är att den är beräkningsmässig och saknar mänsklig kognition. Den senaste eran av AI har i stor utsträckning använt maskininlärning (ML) och djupinlärning (DL), som utnyttjar matchning av beräkningsmönster. Detta har lett till AI-system som ser ut som mänskliga benägenheter. Samtidigt finns det inte någon AI idag som har ett sken av sunt förnuft och inte heller något av det kognitiva förundran med robust mänskligt tänkande.

Var mycket försiktig med att antropomorfiera dagens AI.

ML/DL är en form av beräkningsmönstermatchning. Det vanliga tillvägagångssättet är att man samlar ihop data om en beslutsuppgift. Du matar in data i ML/DL-datormodellerna. Dessa modeller försöker hitta matematiska mönster. Efter att ha hittat sådana mönster, om så hittas, kommer AI-systemet att använda dessa mönster när det möter ny data. Vid presentationen av nya data tillämpas mönstren baserade på "gamla" eller historiska data för att göra ett aktuellt beslut.

Jag tror att ni kan gissa vart detta är på väg. Om människor som har fattat mönstrade beslut har införlivat ogynnsamma fördomar, är oddsen att data speglar detta på subtila men betydelsefulla sätt. Machine Learning eller Deep Learning beräkningsmönstermatchning kommer helt enkelt att försöka matematiskt efterlikna data i enlighet därmed. Det finns inget sken av sunt förnuft eller andra kännande aspekter av AI-tillverkad modellering i sig.

Dessutom kanske AI-utvecklarna inte inser vad som händer heller. Den mystiska matematiken i ML/DL kan göra det svårt att ta bort de nu dolda fördomarna. Du skulle med rätta hoppas och förvänta dig att AI-utvecklarna skulle testa för de potentiellt begravda fördomarna, även om detta är svårare än det kan verka. Det finns en stor chans att det även med relativt omfattande tester kommer att finnas fördomar inbäddade i mönstermatchningsmodellerna för ML/DL.

Du skulle kunna använda det berömda eller ökända ordspråket om skräp-in skräp-ut. Saken är den att detta är mer besläktat med fördomar-in som smygande blir infunderade när fördomar nedsänkt i AI. Algoritmen för beslutsfattande (ADM) för AI blir axiomatiskt laddat med orättvisor.

Inte bra.

Allt detta har särskilt betydande AI-etiska implikationer och erbjuder ett praktiskt fönster till lärdomar (till och med innan alla lärdomar händer) när det gäller att försöka lagstifta AI.

Förutom att använda AI-etiska föreskrifter i allmänhet, finns det en motsvarande fråga om vi bör ha lagar som styr olika användningar av AI. Nya lagar håller på att samlas runt på federal, statlig och lokal nivå som rör omfattningen och karaktären av hur AI bör utformas. Ansträngningen att utarbeta och anta sådana lagar sker gradvis. AI-etik fungerar åtminstone som ett övervägt stopp, och kommer nästan säkert till viss del att direkt införlivas i dessa nya lagar.

Var medveten om att vissa bestämt hävdar att vi inte behöver nya lagar som täcker AI och att våra befintliga lagar är tillräckliga. De varnar för att om vi stiftar några av dessa AI-lagar, kommer vi att döda guldgåsen genom att slå ner på framsteg inom AI som ger enorma samhällsfördelar.

I tidigare spalter har jag täckt de olika nationella och internationella ansträngningarna att skapa och anta lagar som reglerar AI, se länken här, till exempel. Jag har också täckt de olika AI-etiska principerna och riktlinjerna som olika nationer har identifierat och antagit, inklusive till exempel FN:s insatser såsom UNESCO-uppsättningen av AI-etik som nästan 200 länder antog, se länken här.

Här är en användbar nyckelstenslista över etiska AI-kriterier eller egenskaper för AI-system som jag tidigare har utforskat noggrant:

  • Öppenhet
  • Rättvisa & Rättvisa
  • Icke-ondska
  • Ansvar
  • Integritetspolicy
  • Välgörenhet
  • Frihet & autonomi
  • Litar
  • Hållbarhet
  • Värdighet
  • Solidaritet

Dessa AI-etiska principer är uppriktigt tänkta att användas av AI-utvecklare, tillsammans med de som hanterar AI-utvecklingsinsatser, och även de som i slutändan arbetar med och underhåller AI-system.

Alla intressenter under hela AI-livscykeln för utveckling och användning anses vara inom ramen för att följa de etablerade normerna för etisk AI. Detta är en viktig höjdpunkt eftersom det vanliga antagandet är att "endast kodare" eller de som programmerar AI:n är föremål för att följa AI-etikbegreppet. Som tidigare betonats här, krävs det en by för att utveckla och sätta in AI, och för vilken hela byn måste vara bevandrad i och följa AI-etiska föreskrifter.

Nu när jag har lagt en användbar grund för att komma in i det öppna brevet är vi redo att dyka in.

Den officiella ämnestiteln för det öppna brevet är följande:

  • "Ett öppet brev till robotindustrin och våra samhällen, robotar för allmänna ändamål bör inte beväpnas” (enligt publicerat online).

Så långt är allt väl.

Titeln verkar nästan som glass och äppelpaj. Hur kunde någon ifrågasätta detta som en tidigare uppmaning för att undvika vapen av AI-robot?

Läs vidare för att se.

Först, som foder för övervägande, här är det officiella inledande stycket av det öppna brevet:

  • "Vi är några av världens ledande företag som är dedikerade till att introducera nya generationer av avancerad mobil robotik till samhället. Dessa nya generationer av robotar är mer tillgängliga, enklare att använda, mer autonoma, prisvärda och anpassningsbara än tidigare generationer, och kan navigera till platser som tidigare var otillgängliga för automatiserad eller fjärrstyrd teknik. Vi tror att avancerade mobila robotar kommer att ge stor nytta för samhället som medarbetare inom industrin och följeslagare i våra hem” (enligt publicerat online).

Den soliga sidan med tillkomsten av dessa typer av robotar är att vi kan förutse att många stora fördelar kommer att dyka upp. Ingen tvekan om det. Du kanske har en robot i ditt hem som kan göra de där Jetson-liknande aktiviteterna som att städa ditt hus, diska och andra sysslor runt hushållet. Vi kommer att ha avancerade robotar för användning i fabriker och tillverkningsanläggningar. Robotar kan potentiellt krypa eller manövrera in i trånga utrymmen som när en byggnad kollapsar och människoliv står på spel för att räddas. Och så vidare.

För övrigt kan du vara av intresse för min senaste ögonkritiska bevakning av Tesla AI-dagen, där någon slags gående robotar porträtterades av Elon Musk som framtiden för Tesla och samhället, se länken här.

Åter till saken. När vi på allvar diskuterar dansande robotar eller gående robotar, måste vi medvetet ta hänsyn till avvägningar eller den totala ROI (Return on Investment) för denna användning av AI. Vi bör inte tillåta oss att bli alltför förtjusta i förmåner när det också finns kostnader att ta hänsyn till.

En glänsande ny leksak kan ha ganska vassa kanter.

Allt detta leder till en viktig men något tyst punkt att en del av anledningen till att AI-vapenfrågan uppstår nu beror på AI-framsteg mot autonom aktivitet. Vi har vanligtvis förväntat oss att vapen i allmänhet är mänskligt manövrerade. En människa bestämmer om han ska skjuta eller använda vapnet. Vi kan förmodligen hålla den människan ansvarig för sina handlingar.

AI som är utformad för att fungera autonomt eller som kan luras att göra det skulle till synes ta bort människan från loopen. AI:n fattar sedan algoritmiskt beräkningsbeslut som kan sluta med att döda eller skada människor. Förutom den uppenbara oron över bristande kontroll över AI:n, har du också betänkligheterna att vi kan ha svårt att ta ansvar för AI:ns handlingar. Vi har ingen människa som är vår självklara anstiftare.

Jag inser att vissa anser att vi helt enkelt och direkt borde hålla AI:n ansvarig för dess handlingar, som om AI har uppnått mening eller på annat sätt beviljats ​​juridisk person (se min bevakning om debatterna om AI som får juridisk personlighet på länken här). Det kommer inte att fungera just nu. Vi kommer att behöva spåra AI:n till de människor som antingen skapade den eller som ställde upp den. De kommer utan tvekan att försöka undvika ansvar lagligt genom att försöka hävda att AI:n gick utöver vad de hade föreställt sig. Detta är ett växande påstående som vi måste ta itu med (se mina AI Law-skrivningar för insikter om de inblandade kontroversiella frågorna).

Förenta Nationerna (FN) har via konventionen om vissa konventionella vapen (CCW) i Genève fastställt elva icke-bindande vägledande principer om dödliga autonoma vapen, enligt den officiella rapporten som publicerats online (som omfattar hänvisningar till relevant internationell humanitär lag eller IHL-förbehåll) , Inklusive:

(a) Internationell humanitär rätt fortsätter att gälla fullt ut för alla vapensystem, inklusive potentiell utveckling och användning av dödliga autonoma vapensystem.

(b) Mänskligt ansvar för beslut om användning av vapensystem måste behållas eftersom ansvar inte kan överföras till maskiner. Detta bör beaktas över hela vapensystemets livscykel;

(c) Interaktion mellan människa och maskin, som kan ta olika former och implementeras i olika skeden av ett vapens livscykel, bör säkerställa att den potentiella användningen av vapensystem baserade på framväxande teknologier inom området dödliga autonoma vapensystem finns i efterlevnad av tillämplig internationell lag, särskilt internationell rätt. Vid fastställandet av kvaliteten och omfattningen av interaktion mellan människa och maskin bör en rad faktorer beaktas, inklusive det operativa sammanhanget och vapensystemets egenskaper och kapacitet som helhet;

(d) Ansvar för utveckling, utplacering och användning av alla nya vapensystem inom ramen för CCW måste säkerställas i enlighet med tillämplig internationell lag, inklusive genom driften av sådana system inom en ansvarsfull kedja av mänsklig ledning och kontroll;

(e) I enlighet med staters förpliktelser enligt internationell rätt, vid studiet, utvecklingen, förvärvet eller adoptionen av ett nytt vapen, medel eller metod för krigföring, måste det fastställas huruvida dess anställning under vissa eller alla omständigheter skulle vara förbjudet enligt internationell lag;

(f) Vid utveckling eller förvärv av nya vapensystem baserade på framväxande teknik inom området dödliga autonoma vapensystem, fysisk säkerhet, lämpliga icke-fysiska skyddsåtgärder (inklusive cybersäkerhet mot hacking eller dataförfalskning), risken för att terroristgrupper skaffar sig och risken för spridning bör övervägas;

(g) Riskbedömningar och begränsningsåtgärder bör vara en del av design-, utvecklings-, test- och utbyggnadscykeln för framväxande teknik i alla vapensystem.

h) Man bör överväga användningen av framväxande teknik inom området dödliga autonoma vapensystem för att upprätthålla efterlevnaden av IHR och andra tillämpliga internationella rättsliga förpliktelser.

(i) Vid utformning av potentiella politiska åtgärder bör framväxande teknik inom området dödliga autonoma vapensystem inte antropomorfiseras;

(j) Diskussioner och eventuella politiska åtgärder som vidtas inom ramen för CCW bör inte hindra framsteg i eller tillgång till fredlig användning av intelligent autonom teknik;

(k) CCW erbjuder ett lämpligt ramverk för att hantera frågan om framväxande teknik inom området dödliga autonoma vapensystem inom ramen för konventionens mål och syften, som försöker hitta en balans mellan militär nödvändighet och humanitära överväganden.

Dessa och andra olika krigslagar och lagar för väpnade konflikter, eller IHL (International Humanitarian Laws) fungerar som en viktig och ständigt lovande guide för att överväga vad vi kan försöka göra åt tillkomsten av autonoma system som är beväpnade, oavsett om det är genom slutstenen. design eller genom efterhand metoder.

Vissa säger att vi helt och hållet borde förbjuda de autonoma AI-system som kan användas med vapen. Det stämmer, världen borde sätta ner foten och strängt kräva att AI autonoma system aldrig ska vapeniseras. Totalförbud ska införas. Slutet av berättelsen. Punkt, punkt.

Tja, vi kan uppriktigt önska att ett förbud mot dödliga vapenstyrda autonoma system skulle följas strikt och lydigt. Problemet är att en hel del rörelseutrymme är skyldigt att smygt hittas inom något av de uppriktigaste förbuden. Som de säger, regler är till för att brytas. Du kan satsa på att där saker är lösa, kommer riffraff att tära ut luckor och försöka blinka-blinka sig runt reglerna.

Här är några potentiella kryphål som är värda att överväga:

  • Påståenden om icke-dödliga. Gör icke-dödliga autonoma vapensystem (till synes okej eftersom det är utanför förbudsgränsen), som du sedan på en krona kan skifta till att bli dödliga (du kommer bara bortom förbudet i sista minuten).
  • Endast anspråk på autonoma system. Upprätthåll förbudet genom att inte göra dödliga-fokuserade autonoma system, under tiden, gör lika stora framsteg när det gäller att skapa vardagliga autonoma system som inte (ännu) är beväpnade men som du för en krona kan bygga om till att bli beväpnade.
  • Påståenden om att inte integreras som ett. Skapa autonoma system som inte alls är beväpnade, och när det är dags, piggyback-vapen så att du kan försöka häftigt hävda att de är två separata element och därför hävda att de inte faller inom ramen för en allt-i-ett autonomt vapensystem eller dess kusin.
  • Påstår att det inte är autonomt. Gör ett vapensystem som inte verkar ha autonoma kapaciteter. Lämna utrymme i detta förmodligen icke-autonoma system för att släppa in AI-baserad autonomi. När det behövs, koppla in autonomin och du är redo att rulla (tills dess bröt du tydligen inte mot förbudet).
  • Övriga

Det finns många andra uttalade svårigheter med att försöka förbjuda dödliga autonoma vapensystem. Jag ska täcka några fler av dem.

Vissa förståsigpåare hävdar att ett förbud inte är särskilt användbart och att det istället borde finnas reglerande bestämmelser. Tanken är att dessa tillbehör kommer att tillåtas men strängt övervakas. En mängd lagliga användningar anges, tillsammans med lagliga sätt att rikta in sig på, lagliga typer av möjligheter, laglig proportionalitet och liknande.

Enligt deras uppfattning är ett direkt förbud som att stoppa huvudet i sanden och låtsas att elefanten i rummet inte existerar. Detta påstående får dock blodet att koka av dem som motsätter sig argumentet att genom att införa ett förbud kan du dramatiskt minska frestelsen att driva den här typen av system. Visst, vissa kommer att stoltsera med förbudet, men förhoppningsvis kommer de flesta inte det. Du kan då fokusera din uppmärksamhet på flaunters och inte behöva splittra din uppmärksamhet till alla.

Runt och varv går dessa debatter.

En annan ofta uppmärksammad oro är att även om de goda följer förbudet, kommer de dåliga inte att göra det. Detta sätter det goda i en usel hållning. De onda kommer att ha den här typen av beväpnade autonoma system och de goda kommer inte. När saker och ting väl har avslöjats att de dåliga har dem, kommer det att vara för sent för de goda att komma ikapp. Kort sagt, det enda kloka man kan göra är att förbereda sig på att bekämpa eld med eld.

Det finns också den klassiska avskräckningsstriden. Om de goda väljer att göra vapeniserade autonoma system, kan detta användas för att avskräcka de onda från att försöka hamna i en strid. Antingen kommer de goda att vara bättre beväpnade och på så sätt avråda de onda, eller så kommer de goda att vara redo när de onda kanske avslöjar att de i smyg har skapat dessa system hela tiden.

En motsats till dessa räknare är att genom att göra beväpnade autonoma system bedriver du en kapprustning. Den andra sidan kommer att försöka ha detsamma. Även om de inte är tekniskt oförmögna att skapa sådana system på nytt, kommer de nu att kunna stjäla de "goda" planerna, omvända den högteknologiska moden eller efterlikna vad de än verkar se som ett beprövat. sätt att få jobbet gjort.

Aha, någon replik, allt detta kan leda till en minskning av konflikter genom ett sken av ömsesidigt. Om sida A vet att sida B har de där dödliga vapen för autonoma system, och sida B vet att sida A har dem, kan de sitta tätt och inte komma till skott. Detta har den distinkta aura av mutually assured destruction (MAD) vibbar.

Och så vidare.

Tittar Nära På Andra Stycket

Vi har redan täckt mycket mark här och bara hittills övervägt det första eller inledande stycket i det öppna brevet (det finns totalt fyra stycken).

Dags att ta en titt på andra stycket, här kommer du:

  • "Som med all ny teknik som erbjuder nya möjligheter, ger uppkomsten av avancerade mobila robotar möjlighet till missbruk. Opålitliga människor kan använda dem för att invadera medborgerliga rättigheter eller för att hota, skada eller skrämma andra. Ett område av särskild oro är beväpning. Vi tror att lägga till vapen till robotar som är fjärrstyrda eller autonomt manövrerade, allmänt tillgängliga för allmänheten och som kan navigera till tidigare otillgängliga platser där människor bor och arbetar, väcker nya risker för skada och allvarliga etiska frågor. Beväpnade tillämpningar av dessa nyligen kapabla robotar kommer också att skada allmänhetens förtroende för tekniken på sätt som skadar de enorma fördelar de kommer att ge samhället. Av dessa skäl stöder vi inte beväpning av våra generella robotar för avancerad rörlighet. För de av oss som har talat om den här frågan tidigare, och de som engagerar sig för första gången, känner vi nu förnyad brådska i ljuset av den ökande allmänhetens oro under de senaste månaderna orsakad av ett litet antal människor som synligt har publicerat sin provisoriska ansträngningar för att beväpna kommersiellt tillgängliga robotar” (enligt publicerat online).

När jag läser det andra stycket hoppas jag att du kan se hur min tidigare diskurs här om AI-vapen kommer till förgrunden.

Låt oss undersöka några ytterligare punkter.

En viss betänklighet om en viss formuleringsaspekt som har fått upp illamåendet av vissa är att berättelsen tycks betona att "opålitliga människor" skulle kunna missbruka dessa AI-robotar. Ja, faktiskt, det kan vara dåliga människor eller illgärare som åstadkommer elaka handlingar som kommer att "missbruka" AI-robotar.

Samtidigt, som påpekades i början av denna diskussion, måste vi också klargöra att AI själv kan gå snett, möjligen på grund av inbäddade buggar eller fel och andra sådana komplikationer. Den uttryckta oro är att bara betona chanserna för opålitliga människor är att det verkar ignorera andra negativa möjligheter. Även om de flesta AI-företag och -leverantörer inte vill erkänna det, finns det en uppsjö av AI-systemproblem som kan underskrida säkerheten och tillförlitligheten hos autonoma system. För min täckning av AI-säkerhet och behovet av rigorösa och bevisbara skyddsåtgärder, se länken här, till exempel.

En annan anmärkningsvärd punkt som har kommit upp bland dem som har granskat det öppna brevet innebär det inkluderade påståendet att det kan sluta underminera allmänhetens förtroende i samband med AI-robotar.

Å ena sidan är detta ett giltigt påstående. Om AI-robotar används för att göra onda budgivningar, kan du satsa på att allmänheten kommer att bli ganska ångad. När allmänheten blir ångad kan du satsa på att lagstiftare kommer att hoppa in i razzian och försöka stifta lagar som slår ner på AI-robotar och AI-robottillverkare. Detta kan i sin tur lamslå AI-robotindustrin om lagarna är allomfattande och stänger av insatser som involverar AI-robotfördelar. På sätt och vis kunde barnet kastas ut med badvattnet (ett gammalt uttryck som förmodligen förtjänar att gå i pension).

Den uppenbara frågan som också ställs är om detta påstående om att avvärja en minskning av allmänhetens förtroende för AI-robotar är en något egennyttig credo eller om det är för oss allas bästa (kan det vara båda?).

Du bestämmer.

Vi kommer nu till den särskilt köttiga delen av det öppna brevet:

  • "Vi lovar att vi inte kommer att beväpna våra generella robotar för avancerad mobilitet eller den mjukvara vi utvecklar som möjliggör avancerad robotik och vi kommer inte att stödja andra att göra det. När det är möjligt kommer vi noggrant att granska våra kunders avsedda applikationer för att undvika potentiella vapen. Vi lovar också att utforska utvecklingen av tekniska funktioner som kan mildra eller minska dessa risker. För att vara tydlig, vi tar inte strid med befintlig teknik som nationer och deras statliga myndigheter använder för att försvara sig och upprätthålla sina lagar” (enligt publicerat online).

Vi kan packa upp det här.

Sätt dig ner och förbered dig därefter.

Är du redo för lite eldig polarisering?

På den gynnsamma sidan förespråkar vissa vokalt att dessa AI-robottillverkare skulle göra ett sådant löfte. Det verkar som om dessa robottillverkare tack och lov kommer att försöka att inte beväpna sina robotar med "avancerad mobilitet för allmänna ändamål". Dessutom säger det öppna brevet att de inte kommer att stödja andra som gör det.

Kritiker undrar om det pågår någon smart ordsmedja.

Till exempel, var börjar och slutar "avancerad mobilitet"? Om en robottillverkare utarbetar en enkel-mobility AI-robot snarare än en avancerad (som är en odefinierad del av teknisk jargong), utesluts den från omfattningen av vad som inte vara beväpnad? Det är alltså uppenbarligen okej att beväpna AI-robotar med enkel rörlighet, så länge de inte är s.k. avancerat.

Detsamma gäller formuleringen av robotar för allmänt bruk. Om en AI-robot är utformad specifikt för vapenisering och därför inte är det ska vi säga ett generell mening robot, blir det ett hållbart undantag från räckvidden?

Du kanske tjafsar med dessa käbblar och ivrigt hävdar att detta bara är ett öppet brev och inte ett femtiosidigt juridiskt dokument som beskriver varje skrymsle och vrår.

Detta för oss till det till synes mer makronivåmässiga betänkligheten som vissa uttryckt. I huvudsak, vad betyder ett "löfte"?

Vissa frågar, var är nötköttet?

Ett företag som ger ett sådant här löfte gör det till synes utan någon verklig insats i spelet. Om den högsta mästaren på något företag som skriver under på detta löfte bestämmer sig för att inte längre uppfylla löftet, vad händer med det företaget? Kommer cheferna att bli summariskt konserverade? Kommer företaget att lägga ner och be om ursäkt för att ha brutit mot löftet? Och så vidare.

Såvitt kan utläsas finns det ingen särskild påföljd eller bestraffning för brott mot panten.

Du kanske hävdar att det finns risk för skada på ditt rykte. Ett pantsatt företag kan bli anklagat på marknaden för att ha gjort ett löfte som det inte längre uppfyllde. Detta förutsätter naturligtvis också att folk kommer ihåg att utfästelsen gjordes. Den förutsätter också att överträdelsen av panten på något sätt kommer att upptäckas (det verkar helt osannolikt att ett företag kommer att berätta allt om det gör det). Löfteöverträdaren skulle behöva ropas ut och ändå kan en sådan fråga bli enbart buller i den pågående tsunamin av nyheter om AI-robottillverkare.

Tänk på en annan vinkel som har kommit upp.

Ett pantsatt företag köps upp av något större företag. Det större företaget väljer att börja förvandla de avancerade robotarna för allmänna ändamål till AI-vapenversioner.

Är detta ett brott mot löftet?

Det större företaget kan insistera på att det inte är en överträdelse eftersom de (det större företaget) aldrig lämnade utfästelsen. Samtidigt förvandlas de ofarliga AI-robotarna som det mindre företaget har satt ihop och utarbetat, och gör det med till synes de mest altruistiska avsikter, nästan över en natt till att bli beväpnade.

Typ undergräver löftet, även om man kan säga att det mindre företaget inte visste att detta en dag skulle hända. De var uppriktiga i sin önskan. Det var utom deras kontroll vad det större köpföretaget valde att göra.

Vissa frågar sig också om det finns något juridiskt ansvar i detta.

En pantsättningsfirma bestämmer sig om några månader att den inte kommer att infria panten. De har förändrats. Kan företaget stämmas för att ha övergett den pantsättning som den lämnade? Vem skulle stämma? Vad skulle ligga till grund för stämningsansökan? En mängd juridiska frågor uppstår. Som de säger, du kan stämma nästan vem som helst, men om du vinner är en helt annan sak.

Tänk på det här på ett annat sätt. En pantsatt firma får en möjlighet att göra en riktigt stor affär för att sälja en hel massa av sina avancerade mobilitetsrobotar till ett enormt företag som är villigt att betala genom näsan för att få robotarna. Det är en av de där en gång i livet inköpsaffärer för zilliondollar.

Vad ska AI-robotföretaget göra?

Om AI-robotpantfirman är börsnoterad, skulle de nästan säkert sikta på att sälja (detsamma kan sägas om ett privatägt företag, men inte riktigt så). Föreställ dig att det pantsatta företaget är oroligt att köparen kan försöka beväpna robotarna, men låt oss säga att det inte finns någon sådan diskussion på bordet. Det ryktas bara om att köparen kan göra det.

Följaktligen lägger det pantsatta företaget i sin licensiering att robotarna inte ska beväpnas. Köparen avskyr detta språk och går bort från köpet.

Hur mycket vinst gick det lovande AI-robotföretaget just ifrån?

Finns det en punkt då vinsten i handen uppväger införandet av kravet på licensbegränsning (eller kanske lagligt formulerat begränsningen för att tillåta rörelseutrymme och ändå få affären att hända)? Jag tror att du kan se problematiken. Det är lätt att trolla fram massor av sådana scenarier. Frågan är om detta löfte kommer att ha tänder. Om så är fallet, vilken typ av tänder?

Kort sagt, som nämnts i början av den här diskussionen, är vissa förstärkta över att den här typen av utfästelser görs, medan andra ser svagare på om utfästelsen kommer att hålla vatten.

Vi går vidare.

Att få ett löfte att gå

Det fjärde och sista stycket i det öppna brevet säger så här:

  • "Vi förstår att vårt engagemang ensamt inte är tillräckligt för att till fullo ta itu med dessa risker, och därför uppmanar vi beslutsfattare att arbeta med oss ​​för att främja säker användning av dessa robotar och förbjuda deras missbruk. Vi uppmanar också alla organisationer, utvecklare, forskare och användare i robotsamhället att göra liknande löften om att inte bygga, auktorisera, stödja eller möjliggöra fastsättning av vapen till sådana robotar. Vi är övertygade om att fördelarna för mänskligheten med dessa teknologier starkt överväger risken för missbruk, och vi ser fram emot en ljus framtid där människor och robotar arbetar sida vid sida för att ta itu med några av världens utmaningar” (som publicerat på nätet).

Den sista delen av det öppna brevet har flera ytterligare element som har väckt ilska.

Att vända sig till politiker kan vara medvetet eller dåligt, hävdar vissa. Du kan få beslutsfattare som inte är insatta i dessa frågor som sedan gör den klassiska jäktningen till dom och hantverkar lagar och regler som tillskansar sig framstegen med AI-robotar. Enligt vad som tidigare nämnts, kanske innovationen som driver fram AI-robotframsteg kommer att störas eller trampas på.

Bättre vara säker på att du vet vad du frågar efter, säger kritikerna.

Naturligtvis är motargumentet att berättelsen tydligt säger att beslutsfattare bör arbeta med AI-robotföretag för att ta reda på hur man förmodligen förnuftigt kan stifta sådana lagar och förordningar. Motargumentet är att beslutsfattarna kan ses som tittar på AI-robottillverkarna om de tillgodoser deras nycker. Motargumentet mot motargumentet är att det naturligtvis är en nödvändighet att arbeta med de som känner till tekniken, annars kommer resultatet potentiellt att bli en kiltare. Etc.

På en kanske tveksam basis har vissa haft halsbränna över linjen som uppmanar alla att göra liknande löften om att inte fästa vapen till avancerade robotar för allmänt bruk. Nyckelordet där är ordet fästa. Om någon tillverkar en AI-robot som integrerar eller sömlöst inbäddar vapen, verkar det komma runt formuleringen av fästa något. Du kan se det nu, någon som häftigt hävdar att vapnet inte är fäst, det är helt och hållet en del av AI-roboten. Kom över det, utbrister de, vi är inte inom ramen för det löftet, och de kunde till och med annars ha sagt att de var det.

Detta ger upphov till ytterligare ett klagomål om bristen på klibbighet av panten.

Kan ett företag eller någon överhuvudtaget som väljer att göra detta löfte när som helst förklara sig obelånat att de vill göra det och av vilken anledning de så önskar?

Tydligen.

Det bråkas mycket om att göra löften och vilken dragkraft de ger.

Slutsats

Usch, kan man säga, de här företagen som försöker göra rätt sak blir trummade för att de försöker göra rätt.

Vad har kommit av vår värld?

Alla som avger ett sådant löfte borde gynnas av tvivel, kan du passionerat hävda. De kliver ut i den offentliga sfären för att göra en djärv och viktig insats. Om vi ​​börjar smutskasta dem för att de gör det, kommer det säkerligen att göra saken värre. Ingen kommer att vilja ge ett sådant löfte. Företag och andra kommer inte ens försöka. De kommer att gömma sig och inte varna samhället om vad de där älsklingande dansande robotarna farligt kan förvandlas till.

Skeptiker förkunnar att sättet att få samhället att bli klokt innebär andra handlingar, som att släppa den fantasifulla handlingen att visa upp de lekande dansande AI-robotarna. Eller åtminstone göra det till en mer balanserad handling. Till exempel, snarare än att enbart efterlikna älskade sällskapslojala hundar, illustrera hur de dansande robotarna kan vara mer besläktade med vilda lössläppta arga vargar som utan tvekan kan slita människor i bitar.

Det kommer att få mer uppmärksamhet än löften, bönfaller de.

Utfästelser kan utan tvekan vara en stor gåta.

Som Mahatma Gandhi vältaligt sa: "Oavsett hur tydligt löftet än är, kommer människor att vända och vrida texten för att passa deras eget syfte."

Kanske för att avsluta här med en upplyftande ton, sa Thomas Jefferson detta om löften: "Vi lovar varandra ömsesidigt våra liv, våra förmögenheter och vår heliga ära."

När det kommer till AI-robotar, deras autonomi, deras beväpning och liknande, kommer vi alla i slutändan att vara i detta tillsammans. Vårt ömsesidiga löfte måste åtminstone vara att vi kommer att hålla dessa frågor i framkant, vi kommer att sträva efter att hitta sätt att hantera dessa framsteg och på något sätt hitta vår väg mot att säkra vår ära, våra förmögenheter och våra liv.

Kan vi lova det?

Jag hoppas det.

Källa: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- robottillverkare-säger-de-kommer-avvärja-ai-vapen/