AI-etik ryker om det stigande heta potatissyndromet som används av AI-tillverkare som till synes försöker undvika ansvar för sina livsavgörande autonoma system

Vi vet alla att det är meningen att du ska se till att du inte får den ökända heta potatisen.

Den heta potatisgambiten verkar spåra sina rötter till åtminstone det sena 1800-talet när ett sällskapsspel med tända ljus på något sätt fick bollen i rullning. Människor skulle vanligtvis sitta i en serie trästolar som låg relativt bredvid varandra och spela ett helt och hållet spännande spel under den eran. Ett tänt ljus skulle överlämnas från person till person av spelarna och representerade vad vi senare valde att uttrycka som att överlämna en het potatis.

Det var brukligt att varje person skulle behöva tala högt ett populärt rim innan de kunde passera det gradvis brinnande ljuset. Rimmen gick tydligen så här:

”Jack lever och kommer sannolikt att leva;

Om han dör i din hand, har du en förverkande att ge."

Detta rimmande skäl skulle förmodligen ge ljuset en liten stund att fortsätta brinna ner mot sitt slutliga slut. Den som fastnade med ljuset i sin ägo vid den naturliga släckningen i slutet var den som förlorade matchen (ordlek!).

Enligt orden som anges i ramsan var förloraren tvungen att betala "förlusten" och var därför vanligtvis tvungen att lämna ytterligare omgångar av spelet. Detta kan sedan kombineras med vad vi idag betraktar som vardagsmusikaliska stolar, så att den som har förlorat rundan inte längre skulle delta i efterföljande omgångar (som om musiken stannade och de inte kunde få en ledig plats). I slutändan skulle det bara finnas två personer över som passerade det tända ljuset och sa ramsan, tills en slutlig vinnare fastställdes i den slutliga släckningen.

Du kanske undrar varför vi inte längre spelar det här spelet med ett tänt ljus, och varför vi istället vanligtvis hänvisar till detta som en varm potatis snarare än att avbilda detta som ett "tänt ljus"-schema. Forskare har kommit med massor av teorier om hur detta gradvis hände. Historien verkar grumlig och obestämd om hur saker och ting har utvecklats i denna fråga. Jag antar att vi kan vara lättade över att tända ljus inte ofta används på det här sättet, eftersom risken för att något går påtagligt snett skulle verka mycket oroande (någon tappar ljuset och tänder en eld, eller någon bränns av ljuset när man ger det från en annan spelare, etc.).

När det gäller den heta potatisen som ett potentiellt substitut för det tända ljuset, kan du generellt hävda att potatisen kommer att vara något säkrare överlag. Ingen öppen låga. Inget smältande vax. Den potentiella grunden för att använda potatis i detta sammanhang är att den är känd för att lätt hålla värmen när den väl har värmts upp. Du kan skicka runt potatisen så håller den sig varm ett tag. Man antar att det är ett hett diskutabelt förslag att bestämma när den varma potatisen inte längre är varm och istället klassas som kall.

Naturligtvis är föreställningen om en ökänt varm potatis mer av en fristående övervägande dessa dagar. Allt som klassas eller rankas som en het potatis är vanligtvis av en uppriktigt avskaffad kvalitet. Du vill inte hålla i en varm potatis. Du vill vara säker på att den hamnar någon annanstans. Till viss del kanske du inte är alltför bekymrad över vart den tar vägen, helt enkelt att den inte längre är i din ägo.

Du verkar ganska känslosam att eventuellt ge en varm potatis till en kär vän eller liknande bekant. Detta skulle verka helt ur sitt slag. Kanske hitta någon annan eller någon annanstans att lägga den varma potatisen, om du kan göra det. Ett desperat drag kan vara att tvinga den heta potatisen på en vänlig kollega, men detta görs förhoppningsvis bara som en sista utväg.

Den andra sidan av det myntet är att du kanske njuter av att ge en varm potatis till någon du inte gillar eller som du vill hämnas på. Visst, en varm potatis kan vara nästan fantastiskt praktisk om du siktar på att underskatta en person som har behandlat dig dåligt. Låt dem komma på vad de ska göra åt den varma potatisen. Lycka till med potatisen och värsta lycka till den du har taggat den med.

I ett hett potatisscenario som bara involverar två personer, finns det möjlighet att snabbt tjafsa fram och tillbaka om vilken person som håller i det obehagliga och ovälkomna föremålet. Till exempel lämnar jag över den varma potatisen till dig, och du överlämnar hastigt tillbaka den till mig. Om vi ​​antar att vi inte behöver tillkännage ett barnrim mellan varje överlämning, kan vi i stort sett bara passera potatisen så fort som våra armar tillåter oss att göra det.

Du kanske är nyfiken på varför jag har valt att göra en djupdykning i den vördade och ofta citerade heta potatisen.

Här är varför.

Det visar sig att den heta potatisförklädnaden alltmer används inom området artificiell intelligens (AI).

De flesta vet ingenting om det. De har aldrig hört talas om det. De är helt omedvetna om vad det är. Även många AI-utvecklare är inte medvetna om saken. Icke desto mindre existerar och verkar det vänjas i riktigt tvivelaktiga miljöer, särskilt fall som involverar liv-eller-död omständigheter.

Jag hänvisar till detta som AI Hot Potato Syndrome.

Det finns många allvarliga återverkningar bakom detta syndrom och vi måste se till att vi tar på oss våra AI Ethics-tänketak och överväger vad som borde göras. Det finns nyktra etiska överväganden. Det kommer säkert att finnas anmärkningsvärda juridiska konsekvenser också (som ännu inte har nått samhällelig synlighet, även om jag förutspår att de snart kommer att göra det). För min pågående och omfattande bevakning av AI-etik, etisk AI och juridiska AI-frågor, se länken här och länken här, bara för att nämna några.

Låt oss packa upp AI Hot Potato Syndrome.

Föreställ dig ett AI-system som arbetar tillsammans med en människa. AI:n och människan passerar kontrollen över viss pågående aktivitet, så att ibland har människan kontroll medan andra gånger AI:n har kontroll. Detta kan till en början göras på ett ska vi säga väluppfostrat eller rimligt sätt. Av olika anledningar, som vi kommer in på ett ögonblick, kan AI:n beräkningsmässigt fastställa att kontrollen snabbt måste överföras till människan.

Detta är den het potatis som kommer till att äventyra livet i den verkliga världen snarare än att bara tjäna som ett lärorikt barnspel.

Problemet med en hastig övergång av kontroll från AI till människan är att detta kan göras på ett rimligt sätt eller kan åstadkommas på ett ganska orimligt sätt. Om människan inte särskilt förväntar sig överlämningen är detta troligen ett problem. Om människan generellt sett är okej med att kontrollen överlämnas, kan omständigheterna bakom överlämningen vara skrämmande när människan får otillräcklig tid eller otillräcklig medvetenhet om varför kontrollen tvångsmatas i deras mänskliga händer.

Vi kommer att utforska exempel på hur detta kan orsaka livsfara för människan och möjligen andra närliggande människor. Det är allvarliga grejer. Period, punkt.

Innan du går in på några mer av de köttiga aspekterna av det vilda och ulliga överväganden som ligger bakom AI Hot Potato Syndrome, låt oss lägga ut några ytterligare grunder om mycket viktiga ämnen. Vi behöver en kort dykning i AI-etiken och särskilt tillkomsten av Machine Learning (ML) och Deep Learning (DL).

Du kanske är vagt medveten om att en av de mest högljudda rösterna nuförtiden inom AI-området och även utanför AI-området består av att ropa efter en större sken av etisk AI. Låt oss ta en titt på vad det innebär att referera till AI-etik och etisk AI. Utöver det kommer vi att utforska vad jag menar när jag talar om maskininlärning och djupinlärning.

Ett särskilt segment eller del av AI-etiken som har fått mycket uppmärksamhet i media består av AI som uppvisar ogynnsamma fördomar och orättvisor. Du kanske är medveten om att när den senaste eran av AI började var det en enorm explosion av entusiasm för det som vissa nu kallar AI For Good. Tyvärr, i hälarna av den strömmande spänningen, började vi bevittna AI för dåligt. Till exempel har olika AI-baserade ansiktsigenkänningssystem avslöjats innehålla rasfördomar och genusfördomar, vilket jag har diskuterat på länken här.

Ansträngningar att slå tillbaka mot AI för dåligt pågår aktivt. Förutom högljudd laglig i strävan efter att tygla missförhållandena, finns det också en rejäl strävan mot att omfamna AI-etiken för att rätta till AI-elakheten. Tanken är att vi bör anta och godkänna viktiga etiska AI-principer för utveckling och fält av AI för att underskrida AI för dåligt och samtidigt förebåda och främja det föredragna AI For Good.

På ett relaterat begrepp är jag en förespråkare av att försöka använda AI som en del av lösningen på AI-problem, bekämpa eld med eld på det sättet att tänka. Vi kan till exempel bädda in etiska AI-komponenter i ett AI-system som kommer att övervaka hur resten av AI:n gör saker och därmed potentiellt fånga upp i realtid eventuella diskriminerande ansträngningar, se min diskussion på länken här. Vi skulle också kunna ha ett separat AI-system som fungerar som en typ av AI-etikmonitor. AI-systemet fungerar som en övervakare för att spåra och upptäcka när en annan AI går in i den oetiska avgrunden (se min analys av sådana förmågor på länken här).

Om ett ögonblick ska jag dela med dig av några övergripande principer som ligger till grund för AI-etiken. Det finns massor av den här typen av listor som flyter runt här och där. Man kan säga att det ännu inte finns en enda lista över universell överklagande och samstämmighet. Det är de olyckliga nyheterna. Den goda nyheten är att det åtminstone finns lättillgängliga AI-etiklistor och de tenderar att vara ganska lika. Sammantaget tyder detta på att vi genom en form av motiverad konvergens finner vår väg mot en allmän gemensamhet av vad AI-etik består av.

Låt oss först kortfattat täcka några av de övergripande etiska AI-föreskrifterna för att illustrera vad som borde vara ett viktigt övervägande för alla som skapar, använder eller använder AI.

Till exempel, som anges av Vatikanen i Rome Call For AI Ethics och som jag har täckt ingående på länken här, dessa är deras identifierade sex primära AI-etiska principer:

  • Öppenhet: I princip måste AI-system vara förklarliga
  • integration: Alla människors behov måste beaktas så att alla får nytta och alla individer kan erbjudas bästa möjliga förutsättningar att uttrycka sig och utvecklas.
  • Ansvar: De som designar och distribuerar användningen av AI måste fortsätta med ansvar och transparens
  • Opartiskhet: Skapa inte eller agera inte i enlighet med partiskhet, vilket skyddar rättvisa och mänsklig värdighet
  • Pålitlighet: AI-system måste kunna fungera tillförlitligt
  • Säkerhet och integritet: AI-system måste fungera säkert och respektera användarnas integritet.

Som anges av det amerikanska försvarsdepartementet (DoD) i deras Etiska principer för användning av artificiell intelligens och som jag har täckt ingående på länken här, dessa är deras sex primära AI-etiska principer:

  • Ansvarig: DoD-personal kommer att utöva lämpliga nivåer av omdöme och omsorg samtidigt som de förblir ansvarig för utveckling, implementering och användning av AI-kapacitet.
  • Rättvis: Avdelningen kommer att vidta medvetna åtgärder för att minimera oavsiktlig fördom i AI-kapacitet.
  • Spårbar: Avdelningens AI-kapacitet kommer att utvecklas och distribueras så att relevant personal har en lämplig förståelse för tekniken, utvecklingsprocesser och operativa metoder som är tillämpliga på AI-kapacitet, inklusive transparenta och revisionsbara metoder, datakällor och designprocedurer och dokumentation.
  • Pålitlig: Avdelningens AI-förmågor kommer att ha explicita, väldefinierade användningsområden, och säkerheten, säkerheten och effektiviteten för sådana förmågor kommer att bli föremål för testning och försäkran inom de definierade användningarna över hela deras livscykel.
  • Styrbar: Avdelningen kommer att designa och konstruera AI-kapacitet för att uppfylla sina avsedda funktioner samtidigt som den har förmågan att upptäcka och undvika oavsiktliga konsekvenser, och förmågan att koppla ur eller inaktivera utplacerade system som visar oavsiktligt beteende.

Jag har också diskuterat olika kollektiva analyser av AI-etiska principer, inklusive att ha täckt en uppsättning utarbetad av forskare som undersökte och kondenserade essensen av många nationella och internationella AI-etiska principer i en artikel med titeln "The Global Landscape Of AI Ethics Guidelines" (publicerad i Natur), och som min bevakning utforskar kl länken här, vilket ledde till denna keystone-lista:

  • Öppenhet
  • Rättvisa & Rättvisa
  • Icke-ondska
  • Ansvar
  • Integritetspolicy
  • Välgörenhet
  • Frihet & autonomi
  • Litar
  • Hållbarhet
  • Värdighet
  • Solidaritet

Som du direkt kan gissa kan det vara extremt svårt att försöka fastställa detaljerna bakom dessa principer. Ännu mer så är ansträngningen att förvandla dessa breda principer till något helt påtagligt och tillräckligt detaljerat för att användas när man skapar AI-system också en svår nöt att knäcka. Det är lätt att överlag göra lite handviftande om vad AI-etiska föreskrifter är och hur de generellt bör följas, medan det är en mycket mer komplicerad situation i AI-kodningen som måste vara det veritabla gummit som möter vägen.

AI-etikprinciperna ska användas av AI-utvecklare, tillsammans med de som hanterar AI-utvecklingsinsatser, och även de som i slutändan arbetar med och utför underhåll av AI-system. Alla intressenter under hela AI-livscykeln för utveckling och användning anses vara inom ramen för att följa de etablerade normerna för etisk AI. Detta är en viktig höjdpunkt eftersom det vanliga antagandet är att "endast kodare" eller de som programmerar AI:n är föremål för att följa AI-etikbegreppet. Som tidigare nämnts krävs det en by för att utforma och sätta in AI, och för vilken hela byn måste vara bevandrad i och följa AI-etiska föreskrifter.

Låt oss också se till att vi är på samma sida om arten av dagens AI.

Det finns ingen AI idag som är kännande. Vi har inte det här. Vi vet inte om sentient AI kommer att vara möjligt. Ingen kan lämpligen förutsäga om vi kommer att uppnå sentient AI, och inte heller om sentient AI på något sätt mirakulöst spontant kommer att uppstå i en form av beräkningskognitiv supernova (vanligtvis kallad singulariteten, se min bevakning på länken här).

Den typ av AI som jag fokuserar på består av den icke-kännande AI som vi har idag. Om vi ​​ville spekulera vilt om kännande AI, den här diskussionen kan gå i en radikalt annan riktning. En kännande AI skulle förmodligen vara av mänsklig kvalitet. Du skulle behöva tänka på att den kännande AI är den kognitiva motsvarigheten till en människa. Mer så, eftersom vissa spekulerar att vi kan ha superintelligent AI, är det tänkbart att sådan AI kan bli smartare än människor (för min utforskning av superintelligent AI som en möjlighet, se täckningen här).

Låt oss hålla saker mer jordnära och överväga dagens beräkningslösa AI.

Inse att dagens AI inte kan "tänka" på något sätt i nivå med mänskligt tänkande. När du interagerar med Alexa eller Siri kan samtalskapaciteten tyckas likna mänsklig kapacitet, men verkligheten är att den är beräkningsmässig och saknar mänsklig kognition. Den senaste eran av AI har i stor utsträckning använt maskininlärning (ML) och djupinlärning (DL), som utnyttjar matchning av beräkningsmönster. Detta har lett till AI-system som ser ut som mänskliga benägenheter. Samtidigt finns det inte någon AI idag som har ett sken av sunt förnuft och inte heller något av det kognitiva förundran med robust mänskligt tänkande.

ML/DL är en form av beräkningsmönstermatchning. Det vanliga tillvägagångssättet är att man samlar ihop data om en beslutsuppgift. Du matar in data i ML/DL-datormodellerna. Dessa modeller försöker hitta matematiska mönster. Efter att ha hittat sådana mönster, om så hittas, kommer AI-systemet att använda dessa mönster när det möter ny data. Vid presentationen av nya data tillämpas mönstren baserade på "gamla" eller historiska data för att göra ett aktuellt beslut.

Jag tror att ni kan gissa vart detta är på väg. Om människor som har fattat mönstrade beslut har införlivat ogynnsamma fördomar, är oddsen att data speglar detta på subtila men betydelsefulla sätt. Machine Learning eller Deep Learning beräkningsmönstermatchning kommer helt enkelt att försöka matematiskt efterlikna data i enlighet därmed. Det finns inget sken av sunt förnuft eller andra kännande aspekter av AI-tillverkad modellering i sig.

Dessutom kanske AI-utvecklarna inte inser vad som händer heller. Den mystiska matematiken i ML/DL kan göra det svårt att ta bort de nu dolda fördomarna. Du skulle med rätta hoppas och förvänta dig att AI-utvecklarna skulle testa för de potentiellt begravda fördomarna, även om detta är svårare än det kan verka. Det finns en stor chans att det även med relativt omfattande tester kommer att finnas fördomar inbäddade i mönstermatchningsmodellerna för ML/DL.

Du skulle kunna använda det berömda eller ökända ordspråket om skräp-in skräp-ut. Saken är den att detta är mer besläktat med fördomar-in som smygande blir infunderade när fördomar nedsänkt i AI. Algoritmen för beslutsfattande (ADM) för AI blir axiomatiskt laddat med orättvisor.

Inte bra.

Låt oss återgå till vårt fokus på den heta potatisen och dess potentiellt katastrofala användning i AI. Det finns också en djävulskhet som kan lura i det heta potatistricket också.

Som en snabb sammanfattning om AI-manifestationen av den heta potatisgambiten:

  • AI och en människa-i-slingan arbetar tillsammans med en given uppgift
  • AI har kontroll en del av tiden
  • Människan-i-slingan har kontroll en del av tiden
  • Det finns någon form av handoff-protokoll mellan AI:n och människan
  • Överlämningen kan vara mycket synlig, eller så kan den vara subtil och nästan dold
  • Allt detta är vanligtvis i en realtidskontext (något aktivt är på gång)

Det primära fokuset här är när handoff i huvudsak är en het potatis och AI väljer att plötsligt lämna över kontrollen till människan. Observera att jag också senare häri kommer att täcka den andra aspekten, nämligen den mänskliga överlämnandet av kontrollen till AI:n som en het potatis.

Tänk först på vad som kan hända när AI gör en het potatisöverlämning till en människa-i-slingan.

Jag kommer att hänvisa till människan som människan-i-slingan eftersom jag säger att människan redan är en del av den pågående verksamheten. Vi skulle kunna ha andra scenarier där en människa som inte var särskilt involverad i aktiviteten, kanske en främling för hela saken, får den varma potatisen av AI, så kom ihåg att andra smaker av denna miljö finns.

Om jag gav dig en varm potatis och ville göra det på ett rimligt sätt, kanske jag skulle varna dig om att jag kommer att överlämna saker till dig. Dessutom skulle jag försöka göra det här om jag verkligen trodde att det var bättre att ha den varma potatisen än att jag hade den. Jag skulle mentalt räkna ut om du ska ha det eller om jag ska fortsätta med det.

Tänk dig en basketmatch. Du och jag är i samma lag. Vi arbetar förhoppningsvis tillsammans för att försöka vinna matchen. Det är bara några sekunder kvar på klockan och vi behöver desperat göra mål annars kommer vi att förlora matchen. Jag kommer i position för att ta det sista skottet. Ska jag göra det, eller ska jag skicka bollen till dig och få dig att ta det sista skottet?

Om jag är en bättre basketspelare och har större chans att sänka skottet, borde jag nog behålla basketbollen och försöka göra skottet. Om du är en bättre basketspelare än jag borde jag nog skicka bollen till dig och låta dig ta skottet. Andra överväganden kommer i förgrunden som vem av oss som är i en bättre position på banan för att ta skottet, plus om en av oss är utmattad eftersom matchen nästan är över och kan vara sliten och inte upp till par på deras skjutning. Etc.

Med alla dessa faktorer mitt i det trasiga ögonblicket måste jag bestämma mig för om jag ska behålla bollen eller skicka den vidare till dig.

Inser gärna att i detta scenario är klockan avgörande. Du och jag konfronteras båda med ett extremt lägligt svar. Hela spelet är nu på spel. När klockan går ut har vi antingen vunnit för att en av oss gjorde skottet, eller så har vi förlorat sedan vi inte sänkte det. Jag kan kanske bli hjälten om jag sänker korgen. Eller så kan du vara hjälten om jag skickar bollen till dig och du sänker den.

Det finns getsidan eller nackdelarna med detta också. Om jag håller bollen och missar skottet kan alla anklaga mig för att vara geten eller svikit hela laget. Å andra sidan, om jag skickar bollen till dig och du missar skottet, ja, du blir geten. Detta kan vara helt orättvist mot dig eftersom jag tvingade dig att vara den sista skytten och ta det sista skottet.

Du skulle definitivt veta att jag satte dig i den där avskräckande positionen. Och även om alla kunde se mig göra detta, är de skyldiga att bara koncentrera sig på den sista personen som hade bollen. Jag skulle möjligen åka fri. Ingen skulle komma ihåg att jag gav dig bollen i sista stund. De skulle bara komma ihåg att du hade bollen och förlorade matchen för att du inte gjorde skottet.

Okej, så jag skickar bollen till dig.

Varför gjorde jag det?

Det finns inget enkelt sätt att avgöra detta.

Mina sanna avsikter kan vara att jag inte ville fastna som geten, så jag valde att lägga all press på dig. På frågan varför jag passade bollen kunde jag hävda att jag gjorde det för att jag trodde att du är en bättre skytt än mig (men, låt oss låtsas att jag inte alls tror på det). Eller så trodde jag att du var i en bättre position än jag (låt oss låtsas att jag inte heller trodde det). Ingen skulle någonsin veta att jag faktiskt bara försökte undvika att fastna med den varma potatisen.

Från utsidan av saker och ting kunde ingen lätt urskilja mitt sanna skäl för att passa bollen till dig. Jag kanske oskyldigt gjorde det för att jag trodde att du var den bättre spelaren. Det är en vinkel. Jag kanske gjorde det för att jag inte ville att alla skulle kalla mig en förlorare för att jag möjligen missade skottet, så jag fick bollen till dig och tänkte att det var en enorm lättnad för mig. Huruvida jag verkligen brydde mig om dig är en helt annan sak.

Vi kan nu lägga till några ytterligare detaljer till den AI-relaterade heta potatisen:

  • AI väljer att ge kontroll till människan-i-slingan i sista stund
  • Det sista ögonblicket kan redan vara långt bortom alla mänskliga livskraftiga handlingar
  • Människan-i-slingan har kontroll men något felaktigt på grund av överlämnandets timing

Fundera över detta en stund.

Anta att ett AI-system och en människa-i-slingan arbetar tillsammans på en realtidsuppgift som innebär att köra en storskalig maskin i en fabrik. AI:n upptäcker att maskineriet håller på att gå för fullt. Istället för att AI:n fortsätter att behålla kontrollen överlåter AI:n plötsligt kontrollen till människan. Maskineriet i den här fabriken går snabbt mot ren kaos och det finns ingen tid kvar för människan att vidta korrigerande åtgärder.

AI:n har lämnat över den heta potatisen till människan-i-slingan och stoppat upp människan med den veritabla heta potatisen så att omständigheterna inte längre är mänskligt möjliga att hantera. Tagg, du är det, går den gamla linjen när man spelar taggspel som barn. Människan är ska vi säga taggad med röran.

Precis som mitt exempel om basketspelet.

Varför gjorde AI överlämnandet?

Tja, till skillnad från när en människa plötsligt lämnar över en basketboll och sedan gör lite vilda handviftar om varför de gjorde det, kan vi vanligtvis undersöka AI-programmeringen och ta reda på vad som ledde till att AI:n gjorde den här typen av heta potatisöverlämning.

En AI-utvecklare kan ha bestämt i förväg att när AI:n hamnar i en riktigt dålig situation, bör AI:n fortsätta för att ge kontroll till människan-i-loopen. Detta verkar helt vettigt och rimligt. Människan kan vara "den bättre spelaren" på planen. Människor kan använda sina kognitiva förmågor för att potentiellt lösa vilket problem som helst. AI:n har möjligen nått gränserna för sin programmering och det finns inget annat konstruktivt som den kan göra i situationen.

Om AI:n hade gjort överlämningen med en minut kvar innan maskineriet blev kablam, kanske en minut heads-up är tillräckligt lång för att människan i slingan kan rätta till saker och ting. Anta dock att AI:n gjorde överlämningen med tre sekunder kvar. Tror du att en människa skulle kunna reagera inom den tidsramen? Osannolik. I vilket fall som helst, bara för att göra saker ännu mindre käbblande, anta att överlämningen till människan-i-slingan inträffade med några nanosekunder kvar att gå (en nanosekund är en miljarddels sekund, vilket i jämförelse en snabb blinkning av ögat är trögt 300 millisekunder långt).

Skulle en människa-i-slingan kunna reagera tillräckligt om AI:n har gett den heta potatisen med bara små sekunder kvar för att vidta någon öppen handling?

Nej.

Överlämningen är mer av falskhet än den annars kan tyckas vara.

I verkligheten kommer överlämningen inte att göra någon nytta när det kommer till den svåra situationen. AI:n har klämt människan till att bli geten.

Vissa AI-utvecklare tänker inte på detta när de utformar sin AI. De tar (felaktigt) lyckligtvis inte hänsyn till att tiden är en avgörande faktor. Allt de gör är att välja att programmera en överlämning när det blir tufft. När det inte finns något kvar för AI att göra konstruktivt, kasta bollen till den mänskliga spelaren.

AI-utvecklare kanske misslyckas med att ägna någon hängiven tanke åt detta vid tidpunkten för kodningen av AI:n, och de misslyckas då ofta genom att misslyckas med att göra tester som tar upp detta i ljuset. Allt som deras testning visar är att AI "pliktskyldigt" gjorde en handoff när gränserna för AI nåddes. Voila, AI antas vara bra och redo att gå. Testet inkluderade inte en verklig människa som placerades i den där föga avundsvärda och omöjliga positionen. Det fanns inte en riktig testprocess för människan-i-slingan som kunde ha protesterat mot att denna blinkande överlämning i sista ögonblicket, eller faktiskt förbi det sista ögonblicket, gjorde dem lite eller ingen nytta.

Naturligtvis kommer vissa AI-utvecklare noggrant att ha övervägt den här typen av problem, klokt så.

Efter att ha funderat över gåtan kommer de att fortsätta med att programmera AI:n att agera på detta sätt i alla fall.

Varför?

För det finns inget annat att göra, åtminstone i deras sinne. När allt annat misslyckas, handkontroll till människan. Kanske kommer ett mirakel att inträffa. Kontentan är dock att detta inte är något som AI-utvecklaren bryr sig om, och de ger människan den sista chansen att klara av röran. AI-utvecklaren tvättar sina händer om vad som än händer därefter.

Jag vill förtydliga att AI-utvecklare inte är de enda som utvecklar dessa heta potatisdesigner. Det finns en rad andra intressenter som kommer till bordet för detta. Kanske hade en systemanalytiker som gjorde specifikationer och kravanalys sagt att det är vad AI ska göra. De involverade AI-utvecklarna skapade AI:n därefter. AI-projektledaren kan ha utarbetat detta. Cheferna och ledningen som övervakar AI-utvecklingen kan ha utarbetat detta.

Alla under hela AI-utvecklingens livscykel kan ha fört fram samma design av den heta potatisen. Om någon lagt märke till det kan vi inte säga säkert. Om de hade märkt det, kan de ha stämplats som nejsägare och skjutits åt sidan. Andra kan ha fått saken uppmärksammad, men de förstod inte konsekvenserna. De kände att det var en liten teknisk detalj som inte låg inom deras räckvidd.

Jag kommer att lägga till en mycket mer otrevlig möjlighet till denna informella lista över "skäl".

Ett AI Hot Potato Syndrome används ibland avsiktligt eftersom de som gör AI ville ha sina passionerade anspråk på rimlig förnekelse.

Gör dig redo för den här delen av berättelsen.

I fallet med fabriksmaskineriet som går på tok, kommer det säkert att bli mycket fingerpekande om vem som är ansvarig för det inträffade. När det gäller driften av maskineriet hade vi ett AI-system som gjorde det och vi hade en människa-i-loopen som gjorde det. Dessa är våra två basketspelare, metaforiskt.

Klockan rann ner och maskineriet var på gränsen till att gå kaboom. Låt oss säga att du och jag vet att AI:n gjorde en överlämning till människan-i-slingan, och gjorde det med otillräcklig tid kvar för människan att vidta tillräckliga åtgärder för att rätta till eller undvika katastrofen. Ingen annan inser att detta är vad som hände.

Företaget som tillverkar AI kan i alla fall omedelbart deklarera att de inte har något fel eftersom människan hade kontroll. Enligt deras oklanderliga register hade AI inte kontroll vid tidpunkten för kaboomen. Människan var. Därför är det helt klart uppenbart att det är en människas fel.

Ljuger AI-företaget i princip när de gör detta uttalade påstående?

Nej, de verkar tala sanning.

På frågan om de är säkra på att AI:n inte hade kontroll, skulle företaget högt och stolt förkunna att AI:n inte alls hade kontroll. De har dokumenterat bevis för detta påstående (förutsatt att AI förde en logg över händelsen). Faktum är att AI-företagens chefer kan höja på ögonbrynen i avsky över att någon skulle utmana deras integritet på denna punkt. De skulle vara villiga att svära på sin heliga ed att AI var det inte i kontroll. Människan-i-slingan hade kontroll.

Jag litar på att du ser hur missvisande detta kan vara.

Ja, människan fick kontrollen. I teorin hade människan kontroll. AI:n hade inte längre kontroll. Men bristen på tillgänglig timing och meddelande gör detta till ett ytterst ihåligt påstående.

Det fina med detta, ur AI-tillverkarens perspektiv, skulle vara att få kunde ifrågasätta de påståenden som erbjuds. AI-tillverkaren kanske inte släpper loggarna över incidenten. Att göra det kan försvinna den riggade situationen. Loggarna hävdas vara immateriella rättigheter (IP) eller på annat sätt av proprietär och konfidentiell karaktär. Företaget skulle sannolikt hävda att om loggarna visades skulle detta visa upp den hemliga såsen av deras AI och tömma deras uppskattade IP.

Föreställ dig den svåra situationen för den stackars människan-i-slingan. De är förbryllade över att alla skyller på dem för att låta saker gå över styr. AI:n "gjorde rätt sak" och överlämnade kontrollen till människan. Detta kan ha varit vad specifikationerna sa att de skulle göra (återigen, dock var specifikationerna försumliga när de inte tog hänsyn till timing och genomförbarhetsfaktorer). Loggarna som inte har släppts men som påstås vara järnklädda av AI-tillverkaren vittnar om det absoluta faktum att människan hade fått kontroll av AI.

Du kan förklara detta som en ynklig slam-dunk på den förbryllade människan som nästan säkert kommer att ta fallet.

Oddsen är att bara om detta går till domstol skulle verkligheten av det som hände hamna avslöjas. Om de listiga juridiska beaglarna är medvetna om den här typen av spelningar, skulle de försöka få tag i loggarna lagligt. De skulle behöva få ett sakkunnigt vittne (något jag gjort då och då) för att dechiffrera loggarna. Loggarna ensamma kanske inte räcker. Loggarna kan manipuleras eller ändras, eller avsiktligt utformade för att inte visa upp detaljerna tydligt. Som sådan kan AI-koden också behöva fördjupas.

Under tiden, under hela denna plågsamma och långa process av juridisk upptäckt, skulle människan-i-slingan se riktigt dålig ut. Media skulle måla ut personen som oansvarig, tappade huvudet, misslyckades med att vara flitig och borde hållas fullt ansvarig. Möjligen i månader eller år, under denna process, skulle den personen fortfarande vara den som alla pekade anklagande finger åt. Stanken kanske aldrig tas bort.

Tänk också på att samma omständighet lätt kan hända igen. Och igen. Förutsatt att AI-tillverkaren inte ändrade AI:n, när en liknande situation i sista minuten uppstår, kommer AI:n att göra den där no-time-left handoff. Man skulle hoppas att dessa situationer inte inträffar ofta. Vid de sällsynta tillfällena där det inträffar är människan-i-slingan fortfarande den bekväma höstkillen.

Det är ett djävulskt trick.

Du kanske vill insistera på att AI-tillverkaren inte har gjort något fel. De talar sanning. AI gav upp kontrollen. Människan ansågs då ha kontroll. Det är fakta. Ingen mening att bestrida det.

Oavsett om någon vet och ställer de svåra frågorna, plus om AI-tillverkaren svarar på dessa frågor på något enkelt sätt, är detta något som tycks sällan hända.

Frågor är:

  • När gjorde AI överlämnandet till människan-i-slingan?
  • På vilken programmerad grund gjorde AI överlämningen?
  • Fick människan-i-slingan tillräckligt med tid för att ta över kontrollen?
  • Hur designades och utformades AI:n för dessa problem?
  • Och så vidare.

Till viss del är det därför AI-etik och etisk AI är ett så avgörande ämne. AI-etikens föreskrifter får oss att förbli vaksamma. AI-teknologer kan ibland bli upptagna av teknik, särskilt optimering av högteknologi. De överväger inte nödvändigtvis de större samhälleliga konsekvenserna. Att ha ett AI-etik-tänkesätt och göra det integrerat i AI-utveckling och fältarbete är avgörande för att producera lämplig AI, inklusive (kanske överraskande eller ironiskt nog) bedömningen av hur AI-etik antas av företag.

Förutom att använda AI-etiska föreskrifter i allmänhet, finns det en motsvarande fråga om vi bör ha lagar som styr olika användningar av AI. Nya lagar håller på att samlas runt på federal, statlig och lokal nivå som rör omfattningen och karaktären av hur AI bör utformas. Ansträngningen att utarbeta och anta sådana lagar sker gradvis. AI-etik fungerar åtminstone som ett övervägt stopp, och kommer nästan säkert till viss del att direkt införlivas i dessa nya lagar.

Var medveten om att vissa bestämt hävdar att vi inte behöver nya lagar som täcker AI och att våra befintliga lagar är tillräckliga. Faktum är att de varnar för att om vi stiftar några av dessa AI-lagar, kommer vi att döda guldgåsen genom att slå ner på framsteg inom AI som ger enorma samhällsfördelar.

Vid denna tidpunkt av denna tunga diskussion, skulle jag slå vad om att du är sugen på några ytterligare illustrativa exempel som kan visa upp detta ämne. Det finns en speciell och säkerligen populär uppsättning exempel som ligger mig varmt om hjärtat. Du förstår, i min egenskap av expert på AI, inklusive de etiska och juridiska konsekvenserna, blir jag ofta ombedd att identifiera realistiska exempel som visar upp AI-etiska dilemman så att ämnets något teoretiska natur kan lättare förstås. Ett av de mest suggestiva områdena som på ett levande sätt presenterar detta etiska AI-problem är tillkomsten av AI-baserade äkta självkörande bilar. Detta kommer att fungera som ett praktiskt användningsfall eller exempel för omfattande diskussioner om ämnet.

Här är en anmärkningsvärd fråga som är värd att överväga: Belyser tillkomsten av AI-baserade äkta självkörande bilar något om AI Hot Potato Syndrome, och i så fall vad visar detta?

Tillåt mig en stund att packa upp frågan.

Observera först att det inte finns en mänsklig förare inblandad i en äkta självkörande bil. Tänk på att äkta självkörande bilar körs via ett AI-körsystem. Det finns inte ett behov av en mänsklig förare vid ratten, och det finns inte heller en bestämmelse för en människa att köra fordonet. För min omfattande och pågående bevakning av Autonomous Vehicles (AV) och speciellt självkörande bilar, se länken här.

Jag vill ytterligare klargöra vad som menas när jag hänvisar till riktiga självkörande bilar.

Förstå nivåerna av självkörande bilar

Som ett förtydligande är sanna självkörande bilar sådana där AI kör bilen helt på egen hand och det inte finns någon mänsklig hjälp under köruppgiften.

Dessa förarlösa fordon betraktas som nivå 4 och nivå 5 (se min förklaring på denna länk här), medan en bil som kräver en mänsklig förare för att dela köransträngningen vanligtvis anses vara på nivå 2 eller nivå 3. De bilar som delar på köruppgiften beskrivs som halvautonoma och innehåller vanligtvis en mängd olika automatiserade tillägg som kallas ADAS (Advanced Driver-Assistance Systems).

Det finns ännu inte en riktig självkörande bil på nivå 5, och vi vet ännu inte ens om detta kommer att vara möjligt att uppnå, inte heller hur lång tid det kommer att ta att komma dit.

Under tiden försöker nivå 4-ansträngningarna gradvis få lite dragkraft genom att genomgå mycket smala och selektiva offentliga vägförsök, även om det finns kontroverser om huruvida denna testning ska vara tillåten i sig (vi är alla liv-eller-död-marsvin i ett experiment. som äger rum på våra motorvägar och motorvägar, menar vissa, se min täckning på denna länk här).

Eftersom semi-autonoma bilar kräver en mänsklig förare, kommer antagandet av dessa typer av bilar inte att vara märkbart annorlunda än att köra konventionella fordon, så det finns inte mycket nytt i sig att täcka om dem om detta ämne (men som du kommer att se på ett ögonblick är de punkter som nästa görs generellt tillämpliga)

För semi-autonoma bilar är det viktigt att allmänheten måste varnas om en oroande aspekt som har uppstått på sistone, nämligen att trots de mänskliga förarna som fortsätter att lägga upp videor om sig själva somna vid ratten i en nivå 2 eller nivå 3 bil , vi måste alla undvika att bli vilseledda till att tro att föraren kan ta bort sin uppmärksamhet från köruppgiften medan han kör en semi-autonom bil.

Du är den ansvariga parten för fordonets körning, oavsett hur mycket automatisering som kan kastas till nivå 2 eller nivå 3.

Självkörande bilar och AI Hot Potato Syndrome

För nivå 4 och 5 verkliga självkörande fordon finns det ingen mänsklig förare som är involverad i köruppgiften.

Alla passagerare kommer att vara passagerare.

AI kör körningen.

En aspekt att omedelbart diskutera innebär det faktum att AI involverad i dagens AI-körsystem inte är känslig. Med andra ord är AI helt och hållet en kollektiv datorbaserad programmering och algoritmer, och kan med säkerhet inte resonera på samma sätt som människor kan.

Varför är denna extra tonvikt om att AI inte är känslig?

Eftersom jag vill understryka att när jag diskuterar AI-drivsystemets roll tillskriver jag inte mänskliga egenskaper till AI. Tänk på att det idag finns en pågående och farlig tendens att antropomorfisera AI. I grund och botten tilldelar människor mänsklig känsla till dagens AI, trots det obestridliga och obestridliga faktum att ingen sådan AI finns än.

Med det förtydligandet kan du föreställa dig att AI-körsystemet inte på något sätt "vet" om körningens aspekter. Körning och allt det innebär kommer att behöva programmeras som en del av hårdvaran och mjukvaran i den självkörande bilen.

Låt oss dyka in i den myriad av aspekter som kommer att spela om detta ämne.

För det första är det viktigt att inse att inte alla AI självkörande bilar är likadana. Varje biltillverkare och självkörande teknikföretag tar sitt tillvägagångssätt för att utforma självkörande bilar. Som sådan är det svårt att göra svepande uttalanden om vad AI-körsystem kommer att göra eller inte.

Dessutom, närhelst man säger att ett AI-körsystem inte gör någon speciell sak, kan detta senare övertas av utvecklare som faktiskt programmerar datorn att göra just det. Steg för steg förbättras och utökas AI-körsystemen gradvis. En befintlig begränsning idag kanske inte längre existerar i en framtida iteration eller version av systemet.

Jag hoppas att det ger en tillräcklig litania av varningar för att ligga till grund för det jag ska berätta.

För helt autonoma fordon kanske det inte finns någon chans att en handoff inträffar mellan AI:n och en människa, på grund av möjligheten att det inte finns någon människa-i-slingan att börja med. Ambitionen för många av dagens självkörande biltillverkare är att ta bort den mänskliga föraren helt från köruppgiften. Fordonet kommer inte ens att innehålla körkontroller som är tillgängliga för människor. I så fall kommer en mänsklig förare, om den är närvarande, inte att kunna delta i köruppgiften eftersom de saknar tillgång till några körkontroller.

För vissa helt autonoma fordon tillåter vissa konstruktioner fortfarande en människa att vara i slingan, även om människan inte behöver vara tillgänglig eller delta i körprocessen alls. En människa kan alltså delta i körningen, om personen så önskar. Inte vid något tillfälle är AI dock beroende av människan för att utföra någon av köruppgifterna.

När det gäller semi-autonoma fordon finns det ett hand-i-hand-förhållande mellan den mänskliga föraren och AI. För vissa konstruktioner kan den mänskliga föraren ta över körkontrollerna helt och hållet och i huvudsak stoppa AI:n från att delta i körningen. Om den mänskliga föraren vill återinföra AI:n i förarrollen kan de göra det, även om detta ibland tvingar människan att avstå från körkontrollerna.

En annan form av semi-autonom operation skulle innebära att den mänskliga föraren och AI:n arbetar tillsammans i ett team. AI:n driver och människan kör. De kör tillsammans. AI:n kan avvika från människan. Människan kan avstå från AI.

Vid någon tidpunkt kan AI-körsystemet beräkningsmässigt fastställa att den självkörande bilen är på väg in i en ohållbar situation och att det autonoma fordonet kommer att krascha.

För övrigt går några förståsigpåare runt och hävdar att självkörande bilar kommer att vara okrossbara, vilket är rent nonsens och en upprörande och orättfärdig sak att säga, se min bevakning på länken här.

För att fortsätta scenariot med en självkörande bil på väg mot en kollision eller bilolycka, kan AI-körsystemet programmeras för att summariskt lämna över körkontrollerna till den mänskliga föraren. Om det finns tillräckligt med tid tillgänglig för den mänskliga föraren att vidta undvikande åtgärder, kan detta verkligen vara en förnuftig och korrekt sak för AI:n att göra.

Men anta att AI gör överlämningen med en bråkdel av en sekund kvar att gå. Reaktionstiden för den mänskliga föraren är inte i närheten tillräckligt snabb för att svara på ett adekvat sätt. Plus, om människan mirakulöst nog var snabb nog, är oddsen att det inte finns några genomförbara undvikande åtgärder som kan utföras med den begränsade tiden som återstår innan kraschen. Detta är en tvåfas: (1) otillräcklig tid för den mänskliga föraren att vidta åtgärder, (2) otillräcklig tid att om åtgärder var möjlig av den mänskliga föraren att åtgärden skulle kunna utföras under den otillräckliga tid som tillhandahålls.

Sammantaget liknar detta min tidigare diskussion om situationen med basketsurrar och fabriksmaskineriet som gick amok.

Låt oss lägga till den skändliga ingrediensen till detta.

En biltillverkare eller självkörande teknikföretag vill inte bli taggade med olika bilolyckor som har hänt i deras flotta. AI-körsystemet är programmerat att alltid kasta kontrollen över till den mänskliga föraren, oavsett om det finns tillräckligt med tid för den mänskliga föraren att göra något åt ​​situationen. Närhelst en bilolycka inträffar av det här slaget kan biltillverkaren eller den självkörande teknikföretaget röstmässigt insistera på att den mänskliga föraren var vid kontrollerna, medan AI inte gjorde det.

Deras meritlista för AI-körsystem verkar vara fantastisk.

Inte en enda gång är AI-körsystemet "fel" för dessa bilolyckor. Det är alltid de där förbannade mänskliga förarna som inte verkar hålla ögonen på vägen. Vi kanske tenderar att svälja den här blöta och tro att den helt exakta AIn förmodligen aldrig är fel. Vi kanske tenderar att tro (eftersom vi vet av erfarenhet) att mänskliga förare är slarviga och gör massor av körmisstag. Den logiska slutsatsen är att de mänskliga förarna måste vara den skyldige, och AI-körsystemet är helt oskyldigt.

Innan vissa självkörande förespråkare blir upprörda över denna karaktärisering, låt oss absolut erkänna att den mänskliga föraren mycket väl kan vara fel och att de borde ha vidtagit åtgärder tidigare, som att ta över körkontrollerna från AI. Det finns också chansen att den mänskliga föraren kunde ha gjort något väsentligt när AI:n lämnade över körkontrollerna. Etc.

Fokus här har varit på omständigheterna där AI ansågs vara föraren av fordonet och sedan plötsligt och med liten uppmärksamhet på vad en mänsklig förare kan göra, kastar den heta potatisen till den mänskliga föraren. Det är också därför så många är oroade över halvautonoma fordons dubbla körroll. Man kan säga att det är för många förare vid ratten. Syftet verkar vara att lösa frågan genom att ha helt autonoma fordon som inte har något behov av en människa vid ratten och AI:n driver alltid fordonet.

Detta väcker den allierade frågan om vad eller vem som är ansvarig när AI:n kör, som jag har tagit upp många gånger i mina spalter, som t.ex. länken här och länken här.

Slutsats

Vi måste vara försiktiga när vi hör eller läser om bilolyckor med halvautonoma fordon. Var försiktig med dem som försöker lura oss genom att proklamera att deras AI-körsystem har ett fläckfritt rekord. Det luriga knep AI Hot Potato Syndrome kan vara i mixen.

För företag som försöker vara knepiga i dessa frågor, kanske vi kan hålla oss nära hjärtat den berömda raden av Abraham Lincoln: "Du kan lura alla människor ibland och vissa av människorna hela tiden, men du kan inte lura alla människor hela tiden."

Jag har försökt avslöja häri AI-magin gömd bakom skärmen och ibland placerad under huven, vilket jag har belyst så att fler människor vana bli lurad mer av tiden.

Källa: https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-ployed-by-ai-makers- till synes-försöker-undvika-ansvarighet-för-sina-livsbeslutande-autonoma-system/