AI-etik brottas med oundvikligen AI-olyckor, som också skymtar över autonoma självkörande bilar

Känner du kanske någon som verkar vara särskilt olycksbenägen?

Det verkar som vi alla gör det.

Kanske är personen den typen som är benägen att glida på ett bananskal eller välta en dyrbar vas i ditt vardagsrum. De är en mänsklig magnet för olyckor av ett eller annat slag. Det kan vara så illa att du till och med ogillar att vara nära dem ibland. Du kan få det olycksbådande översvämningen eller drabbas av den berömda efterdyningen av en av deras obehagliga olyckor.

Men kanske är vi alltför hårda när vi antyder att någon är mer utsatt för olyckor än andra. Man kan argumentera för att olyckor kan hända vem som helst av oss. Vi är alla föremål för möjligheten att begå eller bli indragen i en olycka. De bästa av oss ingår.

Låt oss lägga en extra irriterande fråga ovanpå denna diskussion.

Är olyckor oundvikliga?

Med andra ord, hur mycket vi än försöker förhindra olyckor, kan det oupplösligt vara att det ändå finns en chans och en yttersta säkerhet för att olyckor kommer att inträffa. Du kan försöka skydda världen från olyckor. Det verkar otvivelaktigt försiktigt. Men på ett eller annat sätt kommer olyckor fortfarande att höja sitt fula huvud.

Som de säger, olyckor väntar på att hända.

Det kan vara till hjälp att förtydliga vad som menas med att hänvisa till någon händelse som lämpligt betecknad som en olycka. Den vanliga ordboksdefinitionen är att en olycka är en typ av händelse som inträffar oväntat och oavsiktligt, för vilken det finns ett olyckligt resultat som består av en sken av skada eller skada.

Packa upp den definitionen medvetet.

Den nämnda händelsen är oväntad. Detta innebär att vi inte verkade inse att själva olyckan skulle inträffa.

Den nämnda händelsen är oavsiktlig. Detta tyder på att vi bör utesluta omständigheterna under vilka någon avsiktligt försökte få händelsen att inträffa. Om en skojare lägger ett bananskal på golvet där de vet att en olycklig och intet ont anande oskyldig kommer att kliva, skulle du få svårt att hävda att personen som snubblade över det hade råkat ut för en olycka. De blev istället lurade och smygande förda i en fälla.

I definitionen ingår också kriteriet att resultatet är olyckligt. En olycka i detta ljus måste leda till ett surt utfall. Personen som av misstag välte en vas har spruckit och möjligen skadat den läckra varan som inte går att reparera. Vasens ägare tar skada av värdeförlusten. Personen som sprang in i vasen kan nu vara skyldig ägaren för förlusten. Gud förbjude att någon kan ha blivit skuren eller skrotad av att vasen gick sönder.

För jämlik balans skulle vi kanske vilja notera att det även förekommer så kallade "bra" olyckor. En person kan hamna i stor förmögenhet eller få någon annan viktig fördel på grund av resultatet av en olycka. Ett av de mest citerade exemplen är Sir Alexander Fleming och hans hyllade upptäckt av penicillin. Historien säger att han var lite slarvig i sitt laboratorium och när han kom tillbaka från en två veckor lång semester hittade han en form på en av sina kulturtallrikar. Enligt uppgift sa han så här om saken: ”Man hittar ibland det man inte letar efter. När jag vaknade strax efter gryningen den 28 september 1928, planerade jag verkligen inte att revolutionera all medicin genom att upptäcka världens första antibiotika, eller bakteriedödare. Men jag antar att det var precis vad jag gjorde."

Vi ska lägga de gynnsamma olyckorna åt sidan och fokusera här på de dystra olyckorna. Den rynkade versionen av olyckor är där dessa negativa utfall kan vara särskilt livshotande eller ha betungande resultat. Så mycket som möjligt, de negativa olyckorna vi vill minimera (och, naturligtvis, de uppåtgående olyckorna vi skulle vilja maximera, om det är möjligt att göra, även om jag kommer att täcka den smiley face varianten i en senare kolumn).

Jag skulle vilja omformulera den tidigare frågan om det oundvikliga av olyckor något. Hittills har vi hållit vår uppmärksamhet på olyckor som inträffar i det speciella fallet av en enstaka person. Det råder ingen tvekan om att olyckor också kan drabba en mängd människor på en gång. Detta kan särskilt uppstå när människor är nedsänkta i ett komplext system av ett eller annat slag.

Gör dig redo för en variant av den tidigare svävade frågan.

Är systemolyckor oundvikliga?

Vi borde fundera över detta.

Anta att ett fabriksgolv läggs ut för att tillverka delar till bilar. De som designade fabriken är låt oss säga extremt oroade över arbetarolyckor som kan inträffa. Fabriksarbetare är skyldiga att bära hjälm hela tiden. Skyltar i fabriken uppmanar att se upp för olyckor och vara uppmärksam i ditt arbete. Alla slags försiktighetsåtgärder vidtas för att undvika att olyckor inträffar.

I det här systemet kan vi hoppas att ingen någonsin kommer att råka ut för en olycka. Tror du att det är noll chans att en olycka inträffar? Jag skulle våga påstå att ingen rimlig tänkare skulle satsa på att chansen för en olycka är noll i det här fallet. Oddsen kan vara väldigt låga för att en olycka ska hända, men vi vet och antar fortfarande att det trots alla försiktighetsåtgärder fortfarande finns en viss risk för att en olycka ska inträffa.

Allt detta pekar på tanken att i ett system med tillräcklig komplexitet är vi skyldiga att tro att olyckor fortfarande kommer att inträffa, oavsett hur hårt vi försöker förhindra dem. Vi backar motvilligt in i kravet att systemolyckor verkligen är oundvikliga. Ett grandiost uttalande av den här kalibern kan ha en varning att systemet måste vara av en viss komplexitetströskel så att det är i princip omöjligt att täcka alla baser för att förhindra olyckor totalt.

Du har nu på ett snyggt sätt steg-för-steg introducerats till en brett formulerad teori om olyckor som kan betecknas som Normala Accidents eller Normal Accident Theory (NAT). Här är en praktisk beskrivning av forskare som har undersökt denna uppfattning: ”I tillräckligt stor skala kommer vilket system som helst att producera "normala olyckor". Dessa är oundvikliga olyckor orsakade av en kombination av komplexitet, koppling mellan komponenter och potentiell skada. En normal olycka skiljer sig från vanligare komponentfelsolyckor genom att de händelser och interaktioner som leder till en normal olycka inte är begripliga för operatörerna av systemet” (som anges i ”Understanding and Avoiding AI Failures: A Practical Guide” av Robert Williams och Roman Yampolskiy, filosofier tidning).

Anledningen till att jag har tagit dig till det sk normala olyckor är att vi kan behöva noggrant tillämpa denna teori på något som gradvis och oundvikligen blir allestädes närvarande i vårt samhälle, nämligen tillkomsten av artificiell intelligens (AI).

Låt oss gräva i det här.

Vissa människor antar felaktigt att AI kommer att bli perfektion. AI-system kommer inte att göra misstag och kommer inte att få oss i trubbel, lyder spekulationerna. Allt du behöver göra är att se till att dessa AI-utvecklare gör ett tillräckligt bra jobb, och vips, AI kommer aldrig att göra något som kan tolkas som oavsiktligt eller orsaka en olycka.

Inte så snabbt på den hypotetiska övertygelsen. Om du är villig att köpa in teorin om normala olyckor, varje AI av någon väsentlig komplexitet kommer oundvikligen att orsaka en olycka. Oavsett hur mycket AI-utvecklare som manipulerar sent på kvällen för att förhindra en olycka, kommer AI:n säkert någon gång att vara inblandad i en olycka. Det är så kakan smulas sönder. Och det finns ingen andrum att gråta i vår utspillda mjölk om det.

Begrunda mixen av AI och de konceptuella grundsatserna normala olyckor.

Föreställ dig att vi har ett AI-system som styr kärnvapen. AI:n har utformats noggrant. Varje tänkbar kontroll och balans har kodats in i AI-systemet. Är vi säkra från en AI-baserad olycka som kan inträffa? De som stöder synen på normala olyckor skulle säga att vi inte är riktigt så säkra som man kan anta. Med tanke på att AI sannolikt kommer att vara särskilt komplex, väntar en normal olycka tyst där inne för att en dag dyka upp, kanske i värsta möjliga ögonblick.

Kärnan i dessa svåra frågor och betänkligheter är att vi måste vara på tårna för att AI är skyldig att vara olycksladdat, och mänskligheten måste göra något förnuftigt och proaktivt åt de faror som kan uppstå. Som du kommer att se om ett ögonblick eller två, är detta ett hotande övervägande när det kommer till att använda AI, och området AI-etik och etisk AI brottas en hel del om vad man ska göra. För min pågående och omfattande bevakning av AI-etik och etisk AI, se länken här och länken här, bara för att nämna några.

Innan vi går ner i ett kaninhål, låt oss se till att vi är på samma sida om arten av AI. Det finns ingen AI idag som är kännande. Vi har inte det här. Vi vet inte om sentient AI kommer att vara möjligt. Ingen kan på ett lämpligt sätt förutsäga om vi kommer att uppnå sentient AI, inte heller om sentient AI på något sätt mirakulöst spontant kommer att uppstå i en form av beräkningskognitiv supernova (vanligtvis kallad singulariteten, se min bevakning på länken här).

Den typ av AI som jag fokuserar på består av den icke-kännande AI som vi har idag. Om vi ​​ville spekulera vilt om kännande AI, den här diskussionen kan gå i en radikalt annan riktning. En kännande AI skulle förmodligen vara av mänsklig kvalitet. Du skulle behöva tänka på att den kännande AI är den kognitiva motsvarigheten till en människa som ger dig råd. Mer så, eftersom vissa spekulerar att vi kan ha superintelligent AI, är det tänkbart att sådan AI kan bli smartare än människor (för min utforskning av superintelligent AI som en möjlighet, se täckningen här). Alla sa att dessa scenarier skulle öka bedömningen av källan.

Låt oss hålla saker mer jordnära och överväga dagens beräkningslösa AI.

Inse att dagens AI inte kan "tänka" på något sätt i nivå med mänskligt tänkande. När du interagerar med Alexa eller Siri kan samtalskapaciteten tyckas likna mänsklig kapacitet, men verkligheten är att den är beräkningsmässig och saknar mänsklig kognition. Den senaste eran av AI har i stor utsträckning använt maskininlärning (ML) och djupinlärning (DL), som utnyttjar matchning av beräkningsmönster. Detta har lett till AI-system som ser ut som mänskliga benägenheter. Samtidigt finns det inte någon AI idag som har ett sken av sunt förnuft och inte heller något av det kognitiva förundran med robust mänskligt tänkande.

Du kanske är medveten om att när den senaste eran av AI började var det en enorm explosion av entusiasm för det som vissa nu kallar AI For Good. Tyvärr, i hälarna av den strömmande spänningen, började vi bevittna AI för dåligt. Till exempel har olika AI-baserade ansiktsigenkänningssystem avslöjats innehålla rasfördomar och genusfördomar, vilket jag har diskuterat på länken här.

Ansträngningar att slå tillbaka mot AI för dåligt pågår aktivt. Förutom högljudd laglig i strävan efter att tygla missförhållandena, finns det också en rejäl strävan mot att omfamna AI-etiken för att rätta till AI-elakheten. Tanken är att vi bör anta och godkänna viktiga etiska AI-principer för utveckling och fält av AI för att underskrida AI för dåligt och samtidigt förebåda och främja det föredragna AI For Good.

På ett relaterat begrepp är jag en förespråkare av att försöka använda AI som en del av lösningen på AI-problem, bekämpa eld med eld på det sättet att tänka. Vi kan till exempel bädda in etiska AI-komponenter i ett AI-system som kommer att övervaka hur resten av AI:n gör saker och därmed potentiellt fånga upp i realtid eventuella diskriminerande ansträngningar, se min diskussion på länken här. Vi skulle också kunna ha ett separat AI-system som fungerar som en typ av AI-etikmonitor. AI-systemet fungerar som en övervakare för att spåra och upptäcka när en annan AI går in i den oetiska avgrunden (se min analys av sådana förmågor på länken här).

Sammantaget är en allmän förhoppning att genom att etablera en känsla för AI-etiska föreskrifter vi åtminstone kommer att kunna öka samhällets medvetenhet om vad AI både kan göra med fördel och också negativt kan producera. Jag har ingående diskuterat olika kollektiva analyser av AI-etiska principer, inklusive att ha täckt en uppsättning utarbetad av forskare som undersökte och kondenserade kärnan i många nationella och internationella AI-etiska grundsatser i en artikel med titeln "The Global Landscape Of AI Ethics Guidelines" (publicerad i Natur), och som min bevakning utforskar kl länken här, vilket ledde till denna keystone-lista:

  • Öppenhet
  • Rättvisa & Rättvisa
  • Icke-ondska
  • Ansvar
  • Integritetspolicy
  • Välgörenhet
  • Frihet & autonomi
  • Litar
  • Hållbarhet
  • Värdighet
  • Solidaritet

Som du direkt kan gissa kan det vara extremt svårt att försöka fastställa detaljerna bakom dessa principer. Ännu mer så är ansträngningen att förvandla dessa breda principer till något helt påtagligt och tillräckligt detaljerat för att användas när man skapar AI-system också en svår nöt att knäcka. Det är lätt att överlag göra lite handviftande om vad AI-etiska föreskrifter är och hur de generellt bör följas, medan det är en mycket mer komplicerad situation i AI-kodningen som måste vara det veritabla gummit som möter vägen.

AI-etikprinciperna ska användas av AI-utvecklare, tillsammans med de som hanterar AI-utvecklingsinsatser, och även de som i slutändan arbetar med och utför underhåll av AI-system. Alla intressenter under hela AI-livscykeln för utveckling och användning anses vara inom ramen för att följa de etablerade normerna för etisk AI. Detta är en viktig höjdpunkt eftersom det vanliga antagandet är att "endast kodare" eller de som programmerar AI:n är föremål för att följa AI-etikbegreppet. Som tidigare nämnts krävs det en by för att utforma och sätta in AI, och för vilken hela byn måste vara bevandrad i och följa AI-etiska föreskrifter.

Vi kan behöva lägga till de omtalade AI-etiklistorna som vi måste uttryckligen överväga och vidta öppna åtgärder för att förhindra eller åtminstone kraftigt mildra AI-baserad normala olyckor som kan inträffa. De som utvecklar AI måste göra sitt bästa på den fronten. De som distribuerar AI måste göra likadant. De som använder eller på något sätt är föremål för AI bör vara försiktiga och på sin vakt för möjligheten av AI-olyckor som till synes kommer att uppstå.

Du kanske frestas att tro att tillräckligt med försiktighetsåtgärder kan byggas in i AI:n för att risken för en olycka ska sjunka till noll. För dem som är tekniker är den vanliga hybrisen att om en teknik kan generera ett problem, kan en annan teknik säkert lösa problemet. Fortsätt bara att slänga mer och mer teknik tills problemet försvinner.

Tja, de som har studerat systemorienterade olyckor tenderar att vara oense och artigt svara till den förmodade tekniska pompositeten genom att ge en ståndpunkt känd som den schweiziska ostmodellen (SCM): "I SCM är säkerhetsskikten modellerade som skivor av ost med hål i dem som representerar svaga punkter i varje säkerhetslager. Med tiden ändrar hål form och rör sig runt. Så småningom, oavsett hur många skivor ost (säkerhetslager) det finns, kommer hålen att passa in så att ett rakt skott genom alla ostskivor inträffar (en olycka inträffar)" (enligt den tidigare citerade artikeln av Robert Williams och Roman Yampolskiy ).

Jag vill inte fastna i den här sidotangenten om huruvida det finns ett garanterat sätt att programmera AI för att helt och alltid undvika risken för en olycka. Det finns alla möjliga matematiska och beräkningsmässiga bevismetoder som prövas. Jag tycker att det är rimligt och rättvist att deklarera att vi idag inte har en skalbar arbetsmetod eller teknologier som kan garantera en sådan noll chans, plus att vi definitivt är belagda med ton på ton av AI som håller på att produceras att vi vet med säkerhet inte har försökt följa sådana metoder. Den sistnämnda punkten är avgörande eftersom även om vi kan koka ihop något i ett AI-labb, att skala det till de miljontals vilda och bekymmerslösa AI-ansträngningar som pågår och som kommer att fortsätta att dyka upp är en klumpig fråga och sannolikt inte löst även om en datorbevisande maskin silver kula fanns.

En annan punkt som jag anser förtjänar att kort nämnas består av AI som förvandlas till att göra ogynnsamma handlingar som ett resultat av illvilliga mänskliga aktörer. Jag kommer inte att placera dessa fall i riket av AI-olyckor. Kom ihåg att den inledande diskussionen antydde att ordboksdefinitionen av en olycka var en incident av en oavsiktlig natur. Om en mänsklig cyberskurk lyckas få ett AI-system att göra dåliga saker, klassificerar jag inte den AI:n som att den råkar ut för en olycka. Jag litar på att du kommer att gå med på det antagandet.

En intressant fråga kommer upp om hur mycket av olika AI-felaktiga handlingar som kan hänföras till en ren AI-olycka kontra en cyberbrottslings slug handling. Enligt några av de befintliga AI-incidentrapporteringsdatabaserna verkar det som att AI-olyckorna inträffar mer än de uppsåtligt sporrade incidenterna, även om du måste ta den tanken med en rejäl dos salt. Jag säger detta eftersom det finns en stor frestelse att inte rapportera när ett AI-system attackerades, och kanske vara något mer villig att rapportera när en AI-olycka inträffar.

Det finns en extremt viktig varning vi behöver diskutera angående AI-olyckor.

Att använda slagordet "AI-olyckor" är i allmänhet oönskat och kommer att skapa en hel röra för oss alla, vilket betyder för hela samhället. När en människa råkar ut för en olycka, rycker vi ofta på axlarna och är sympatiska med den som råkade ut för olyckan. Vi verkar behandla ordet "olycka" som om det betyder att ingen är ansvarig för det som hände.

Låt oss ta exemplet med att råka ut för en bilolycka. En bil svänger brett vid en högersväng och ramlar av misstag in i en annan bil som körde rakt fram. Shicks, det var bara en olycka och hände av misstag. De som inte var inblandade i händelsen kommer kanske att låta saken glida om händelsen tolkas som att det bara är en olycka som hänt.

Jag har dock en känsla av att om du satt i bilen som blev påkörd, skulle du inte vara så sympatisk med föraren som gjorde den alltför breda svängen. Din åsikt skulle säkert vara att den andra föraren var en usel förare och att antingen en till synes olaglig eller oklok körhandling ledde till bilolyckan. Genom att stämpla händelsen som en "olycka" är den förare som satt fast nu i ett visst underläge eftersom det verkar som att det hela inträffade enbart av en händelse, snarare än via händerna på föraren som trasslade till.

Faktum är att ordet "olycka" är så fyllt av olika konnotationer att den statliga statistiken över bilolyckor i stort sett hänvisar till saken som bilkollisioner eller bilolyckor, snarare än att använda sig av uttrycket bilolyckor. En bilkrock eller en bilolycka verkar inte ha några konsekvenser för hur händelsen kom till. Samtidigt leder formuleringen av en "bilolycka" oss nästan att tro att det var ödets egenhet eller på något sätt utanför mänsklighetens händer.

Du kan rikligt se hur denna konnotation kommer att spela när man hänvisar till AI-olyckor. Vi vill inte att AI-utvecklare ska gömma sig bakom konnotationsskölden att AI:n av misstag orsakade någon skada. Detsamma gäller för de som distribuerar AI. Du kan hävda att formuleringen "AI-olyckor" nästan är en antropomorfisering av AI som kommer att vilseleda samhället till att låta människorna som var bakom kulisserna för AI:n undkomma ansvar. För min diskussion om den ökande betydelsen av att hålla människor ansvariga för sin AI, se min diskussion på denna länk här och denna länk här.

Jag kommer hädanefter att använda slagordet AI-olyckor, men jag gör det motvilligt och bara för att det är det konventionella sättet att referera till detta fenomen. Försök att formulera detta på ett annat sätt tenderar tyvärr att bli mer uppsvällda och inte lika lättlästa. Se till att tolka slagordet på ett sätt som inte får dig att se åt andra hållet och misslyckas med att inse att de människor som ligger bakom AI:n är skyldiga när AI går snett.

För att hjälpa till att illustrera den troliga förvirringen eller vilseledande aspekterna av att hänvisa till AI som olyckor kan vi återgå till mina kommentarer om att välta en vas. Tänk på det här exemplet på AI som gör det: "Det här problemet har att göra med saker som görs av misstag eller likgiltighet av AI. En städrobot som välter en vas är ett exempel på detta. Komplexa miljöer har så många typer av "vaser" att vi sannolikt inte kommer att kunna programmera in en straffavgift för alla biverkningar” (enligt tidningen av Robert Williams och Roman Yampolskiy).

Ett AI-system som tas i bruk i ett hushåll och sedan "av misstag" välter en vas verkar tyda på att ingen borde klandras för denna negativa verkan av AI. Det var bara en olycka, kan man beklaga sig. Å andra sidan bör vi med rätta fråga varför AI-systemet inte var programmerat för att hantera vassomständigheten i allmänhet. Även om AI-utvecklarna inte förutsåg att en vas i sig låg inom ramen för de föremål som kunde påträffas, kan vi säkert ifrågasätta varför det inte fanns något övergripande objektundvikande som skulle ha hindrat AI-systemet från att välta vas (således kan AI visserligen inte klassificera vasen som en vas, men ändå kunde ha undvikit den som ett detekterbart föremål som skulle undvikas).

Jag har förutspått och fortsätter att förutsäga att vi gradvis är på väg mot en enorm juridisk strid om uppkomsten av AI-system som råkar ut för "AI-olyckor" och orsakar någon form av skada. Hittills har samhället inte reagerat på något nämnvärt sätt på laglig pushback mot AI som skyfflas ut på marknaden och ger negativa konsekvenser, vare sig avsiktligt eller oavsiktligt. Dagens AI-tåg som har blivit en guldrusning av halvdana AI-tillverkare och de som skyndade inför AI-utbyggnaden har tur just nu och förblir relativt oberörd av civilrättsliga stämningar och åtal.

Den AI-drivna juridiska motreaktionen kommer att komma, förr eller senare.

Går vi vidare, hur ska vi försöka hantera det oundvikliga av så kallade AI-olyckor?

En sak vi kan göra direkt är att försöka förutse hur AI-olyckor kan inträffa. Genom att förutse AI-olyckorna kan vi åtminstone försöka hitta sätt att begränsa dem eller minimera deras sannolikhet att inträffa. Dessutom kan vi försöka sätta upp skyddsräcken så att risken för demonstrativ skada minskar när en AI-olycka inträffar.

En användbar uppsättning faktorer som beskrevs i den tidigare citerade forskningsartikeln Förstå och undvika AI-fel: En praktisk guide inkluderar dessa egenskaper (som citeras från forskningsrapporten):

  • Systemet som påverkas av utsignalerna från AI.
  • Tidsfördröjning mellan AI-utgångar och det större systemet, systemets observerbarhet, graden av mänsklig uppmärksamhet och operatörernas förmåga att korrigera för felaktig funktion i AI.
  • Den största möjliga skadan genom skadlig användning av systemen som AI kontrollerar.
  • Koppling av komponenterna i närheten av AI och komplexiteten i interaktioner.
  • Kunskapsgap för AI och annan teknik som används och systemets energinivå.

Vid denna tidpunkt av denna tunga diskussion, skulle jag slå vad om att du är sugen på några illustrativa exempel som ytterligare kan belysa ämnet AI-olyckor. Det finns en speciell och säkerligen populär uppsättning exempel som ligger mig varmt om hjärtat. Du förstår, i min egenskap av expert på AI inklusive de etiska och juridiska konsekvenserna, blir jag ofta ombedd att identifiera realistiska exempel som visar upp AI-etiska dilemman så att ämnets något teoretiska natur kan lättare förstås. Ett av de mest suggestiva områdena som på ett levande sätt presenterar detta etiska AI-problem är tillkomsten av AI-baserade äkta självkörande bilar. Detta kommer att fungera som ett praktiskt användningsfall eller exempel för omfattande diskussioner om ämnet.

Här är en anmärkningsvärd fråga som är värd att överväga: Belyser tillkomsten av AI-baserade äkta självkörande bilar något om tillkomsten av så kallade AI-olyckor och i så fall, vad visar detta upp?

Tillåt mig en stund att packa upp frågan.

Observera först att det inte finns en mänsklig förare inblandad i en äkta självkörande bil. Tänk på att äkta självkörande bilar körs via ett AI-körsystem. Det finns inte ett behov av en mänsklig förare vid ratten, och det finns inte heller en bestämmelse för en människa att köra fordonet. För min omfattande och pågående bevakning av Autonomous Vehicles (AV) och speciellt självkörande bilar, se länken här.

Jag vill ytterligare klargöra vad som menas när jag hänvisar till riktiga självkörande bilar.

Förstå nivåerna av självkörande bilar

Som ett förtydligande är sanna självkörande bilar sådana där AI kör bilen helt på egen hand och det inte finns någon mänsklig hjälp under köruppgiften.

Dessa förarlösa fordon betraktas som nivå 4 och nivå 5 (se min förklaring på denna länk här), medan en bil som kräver en mänsklig förare för att dela köransträngningen vanligtvis anses vara på nivå 2 eller nivå 3. De bilar som delar på köruppgiften beskrivs som halvautonoma och innehåller vanligtvis en mängd olika automatiserade tillägg som kallas ADAS (Advanced Driver-Assistance Systems).

Det finns ännu inte en riktig självkörande bil på nivå 5, och vi vet ännu inte ens om detta kommer att vara möjligt att uppnå, inte heller hur lång tid det kommer att ta att komma dit.

Under tiden försöker nivå 4-ansträngningarna gradvis få lite dragkraft genom att genomgå mycket smala och selektiva offentliga vägförsök, även om det finns kontroverser om huruvida denna testning ska vara tillåten i sig (vi är alla liv-eller-död-marsvin i ett experiment. som äger rum på våra motorvägar och motorvägar, menar vissa, se min täckning på denna länk här).

Eftersom semi-autonoma bilar kräver en mänsklig förare, kommer antagandet av dessa typer av bilar inte att vara märkbart annorlunda än att köra konventionella fordon, så det finns inte mycket nytt i sig att täcka om dem om detta ämne (men som du kommer att se på ett ögonblick är de punkter som nästa görs generellt tillämpliga)

För semi-autonoma bilar är det viktigt att allmänheten måste varnas om en oroande aspekt som har uppstått på sistone, nämligen att trots de mänskliga förarna som fortsätter att lägga upp videor om sig själva somna vid ratten i en nivå 2 eller nivå 3 bil , vi måste alla undvika att bli vilseledda till att tro att föraren kan ta bort sin uppmärksamhet från köruppgiften medan han kör en semi-autonom bil.

Du är den ansvariga parten för fordonets körning, oavsett hur mycket automatisering som kan kastas till nivå 2 eller nivå 3.

Självkörande bilar och AI-incidenter

För nivå 4 och 5 verkliga självkörande fordon finns det ingen mänsklig förare som är involverad i köruppgiften.

Alla passagerare kommer att vara passagerare.

AI kör körningen.

En aspekt att omedelbart diskutera innebär det faktum att AI involverad i dagens AI-körsystem inte är känslig. Med andra ord är AI helt och hållet en kollektiv datorbaserad programmering och algoritmer, och kan med säkerhet inte resonera på samma sätt som människor kan.

Varför är denna extra tonvikt om att AI inte är känslig?

Eftersom jag vill understryka att när jag diskuterar AI-drivsystemets roll tillskriver jag inte mänskliga egenskaper till AI. Tänk på att det idag finns en pågående och farlig tendens att antropomorfisera AI. I grund och botten tilldelar människor mänsklig känsla till dagens AI, trots det obestridliga och obestridliga faktum att ingen sådan AI finns än.

Med det förtydligandet kan du föreställa dig att AI-körsystemet inte på något sätt "vet" om körningens aspekter. Körning och allt det innebär kommer att behöva programmeras som en del av hårdvaran och mjukvaran i den självkörande bilen.

Låt oss dyka in i den myriad av aspekter som kommer att spela om detta ämne.

För det första är det viktigt att inse att inte alla AI självkörande bilar är likadana. Varje biltillverkare och självkörande teknikföretag tar sitt tillvägagångssätt för att utforma självkörande bilar. Som sådan är det svårt att göra svepande uttalanden om vad AI-körsystem kommer att göra eller inte.

Dessutom, närhelst man säger att ett AI-körsystem inte gör någon speciell sak, kan detta senare övertas av utvecklare som faktiskt programmerar datorn att göra just det. Steg för steg förbättras och utökas AI-körsystemen gradvis. En befintlig begränsning idag kanske inte längre existerar i en framtida iteration eller version av systemet.

Jag litar på att det ger en tillräcklig litania av varningar för att ligga till grund för det jag ska berätta.

Vi är redo att göra en djupdykning i självkörande bilar och de etiska AI-möjligheterna som medför uppkomsten av så kallade AI-olyckor.

Föreställ dig att en AI-baserad självkörande bil är på väg på dina grannskapsgator och verkar köra säkert. Till en början hade du ägnat särskild uppmärksamhet åt varje gång du lyckades få en skymt av den självkörande bilen. Det autonoma fordonet stack ut med sitt rack av elektroniska sensorer som inkluderade videokameror, radarenheter, LIDAR-enheter och liknande. Efter många veckor av den självkörande bilen som kryssar runt i ditt samhälle, märker du nu knappt det. För dig är det bara en annan bil på de redan trafikerade allmänna vägarna.

För att du inte tror att det är omöjligt eller osannolikt att bli bekant med att se självkörande bilar, har jag skrivit ofta om hur de lokaler som ligger inom ramen för självkörande bilprover gradvis har vant sig vid att se de piffade fordonen. Många av lokalbefolkningen gick så småningom från mungapande hänförd blick till att nu avge en expansiv gäspning av tristess för att bevittna de slingrande självkörande bilarna.

Förmodligen är den främsta anledningen just nu till att de kan lägga märke till de autonoma fordonen på grund av irritations- och irritationsfaktorn. De bokförda AI-körsystemen ser till att bilarna följer alla hastighetsgränser och trafikregler. För hektiska mänskliga förare i sina traditionella människodrivna bilar blir man irriterad ibland när man sitter fast bakom de strikt laglydiga AI-baserade självkörande bilarna.

Det är något vi alla kan behöva vänja oss vid, med rätta eller fel.

Tillbaka till vår berättelse.

En dag råkar den självkörande bilen ut för en olycka.

Under en högersväng svängde AI-körsystemet det autonoma fordonet brett och en människodriven bil blev påkörd. Den människodrivna bilen körde rakt fram i rätt körfält. Det fanns ingen speciell möjlighet för den mänskliga föraren att väja eller undvika att bli påkörd. Dessutom fanns det ingen varning eller indikation från den självkörande bilen om att den skulle göra en bred högersväng.

Är det här en olycka?

Vi kan säkert säga att det omfattas av rubriken att vara en AI-olycka. Grunden för ett sådant påstående är att det fanns ett AI-körsystem vid ratten i den självkörande bilen. På något sätt, oavsett anledning, valde AI att göra en bred sväng när man tog en högersväng. Resultatet ledde till att den självkörande bilen träffade en människodriven bil.

Kom ihåg den tidigare diskussionen om konnotationerna förknippade med ordet "olycka" och se hur sådana undertoner kommer att spela i detta scenario. Kom också ihåg att vi diskuterade fallet med en mänsklig förare som gjorde en bred högersväng och körde in i en medmänniskan. Vi insåg att föreställningen om att denna handling är en "olycka" är vilseledande och förvirrande. Den mänskliga föraren som gjorde den breda svingen kunde gömma sig bakom tanken att en olycka bara inträffade som till synes var av en tillfällighet eller ödets nyckfullhet.

Istället för att märka scenariot som en "AI-olycka" i fallet med den AI-baserade självkörande bilen som går brett och träffar den människodrivna bilen, kanske vi borde säga att det var en bilolycka eller bilkollision som involverade en själv- körande bil och en människodriven bil. Vi kan då avstå från den tomma förvirringen att det är en olycka med okända medel.

Hur tror du att allmänhetens reaktion på händelsen skulle bli?

Tja, om biltillverkaren eller det självkörande teknikföretaget kan hålla fast vid märkningen av ärendet som en olycka, kanske de kan gå runt den potentiella motreaktionen från samhället i stort. En känsla av sympati för alla olyckor skulle möjligen strömma över till den särskilda omständigheten. För mer om hur städer, län och statliga ledare potentiellt kommer att reagera på incidenter med AI autonoma fordon, se diskussionen om en Harvard-studie som jag ledde och som beskrivs på länken här.

Om situationen tydligt beskrivs som en bilolycka eller bilkollision, kanske det kan göra det möjligt att inse att någon eller något kanske är skyldig till händelsen. En knästötreaktion kan vara att AI:n ska hållas ansvarig. Saken är den att tills eller om vi någonsin bestämmer oss för att smörja AI som att ha en sken av juridisk person, kommer du inte att kunna lägga ansvaret på AI i sig (se min diskussion om AI och juridisk personlighet på länken här).

Vi kan inspektera AI-körsystemet för att försöka ta reda på vad som ledde till den till synes olämpliga körningen och den efterföljande bilolyckan. Det betyder dock inte att AI kommer att hållas ansvarig. Ansvariga är bland annat AI-utvecklarna, vagnparksoperatören för den självkörande bilen och andra. Jag inkluderar även andra eftersom det finns en möjlighet att staden kan hållas delvis ansvarig för utformningen av hörnet där vändningen ägde rum. Anta dessutom att en fotgängare sprang ut från hörnet och att AI-körsystemet valde att undvika personen och ändå fastnade i bilolyckan.

Och så vidare.

Slutsats

Vi skulle vilja veta vad AI:n beräknade beräkningsmässigt och vad den hade programmerats för att göra. Gjorde AI som kodades? Kanske har AI:n stött på en bugg eller ett fel i programmeringen, vilket inte ursäktar åtgärderna utan ger mer en ledtråd till hur kraschen uppstod.

Vilken typ av AI-räcke var programmerad i AI-körsystemet? Om det fanns skyddsräcken skulle vi vilja ta reda på varför de inte verkade förhindra bilolyckan. Kanske kunde AI-körsystemet ha stannat i stället för att svänga. Vi skulle vilja veta vilka alternativ AI:n beräkningsmässigt bedömde under händelseförloppet.

Förutom att gå till botten med den specifika incidenten, är ett annat rättmätigt problem om AI-körsystemet har ett fel eller någon annan inbäddad aspekt som kommer att göra liknande typer av negativa handlingar. I grund och botten kan den här incidenten vara en indikator på mer som kommer. Hur användes datorbaserade simuleringar av körsituationer för att försöka förutse denna typ av AI-körsystem? Fanns det tillräckligt med körtester på vägen för att ha löst de AI-problem som kan ha lett till bilolyckan?

Detta scenario belyser en kontroversiell gåta som står inför framväxten av AI-baserade självkörande bilar.

Den går såhär.

Å ena sidan finns det en samhällelig önskan att snabbt adoptera självkörande bilar på grund av förhoppningen att AI-körsystem ska vara lika säkra eller möjligen säkrare än mänskliga förare. Bara i USA har vi för närvarande nästan 40,000 2.5 dödsfall årligen på grund av bilolyckor och cirka XNUMX miljoner mänskliga skador. Analyser tyder på att en betydande del av dessa bilolyckor kan tillskrivas mänskliga fel som att köra berusad, köra distraherad etc. (se min bedömning av sådan statistik på länken här).

AI-körsystem kommer inte att dricka och köra. De behöver inte vila och de kommer inte att bli utslitna när de sitter vid ratten. Antagandet är att genom att etablera självkörande bilar som ett livskraftigt transportsätt kan vi minska antalet mänskliga förare. Det borde i sin tur innebära att vi summariskt kommer att minska antalet årliga dödsfall och skadade människor i bilolyckor.

Vissa förståsigpåare har sagt att vi kommer att sluta med noll dödsfall och noll skadade, och de där självkörande bilarna kommer förmodligen att vara okrossbara, men detta är en helt absurd och fullständigt falsk uppsättning förväntningar. Jag har förklarat varför det här är så ohederligt länken här.

Antag i alla fall att vi kommer att ha en viss mängd bilolyckor som självkörande bilar blir inblandade i. Antag också att dessa bilolyckor kommer att ha en viss mängd dödsfall och skadade. Frågan som plågas över är om vi som samhälle är villiga att tolerera några sådana fall överhuvudtaget. Vissa säger att om ens ett dödsfall eller en skada inträffar som ett resultat av äkta självkörande bilar, bör hela kitet och kaboodlen stängas av.

Den motverkande synen är att om de räddade liven minskar de årliga räkningarna, bör vi fortsätta att uppmuntra tillkomsten av självkörande bilar och inte reagera på ett så ologiskt sätt. Vi måste acceptera premissen att en viss mängd dödsfall och skadade fortfarande kommer att finnas, även med självkörande bilar, och ändå inse att den årliga räkningen om den minskas tyder på att vi är på rätt väg.

Vissa hävdar förstås att vi inte bör ha självkörande bilar på våra allmänna vägar förrän de antingen är frikända för sådan användning som ett resultat av omfattande och uttömmande datorbaserade simuleringar eller som via privata tester med slutna spår. Motargumentet är att det enda gångbara och snabbaste sättet att få igång självkörande bilar är genom att använda allmänna vägar och att eventuella förseningar i att anta självkörande bilar annars kommer att tillåta de fasansfulla siffrorna av människodrivna bilkrockar att fortsätta. Jag har täckt den här debatten mer i längd i mina spalter och uppmanar läsarna att titta på dessa diskussioner för att få en full uppfattning om perspektiven på denna kontroversiella fråga.

Låt oss avsluta saker nu.

AI-olyckor kommer att hända. Vi måste motstå impulsen att tolka en AI-olycka som till synes oavsiktligt och därför felaktigt låt tillverkarna och de som använder AI vara kategoriskt urkopplade.

Det finns en extra twist som jag lämnar dig med som en sista spännande tanke för din dag.

Komikern Dane Cook berättade enligt uppgift detta skämt om bilolyckor: "För ett par dagar sedan råkade jag ut för en bilolycka. Inte mitt fel. Även om det inte är ditt fel, går den andra personen ur sin bil och tittar på dig som om det är ditt fel: Varför stannade du vid rött ljus och lät mig slå dig med 80!

Där vändningen kommer i förgrunden är möjligheten att ett AI-system kan välja att insistera på att när en AI-olycka inträffar där just den AI är inblandad, säger AI:n att incidenten var människans fel och definitivt inte AI:s fel. Förresten, detta kan vara mycket sant och människan kanske försöker bli syndabock för AI:n genom att hävda att det var AI:s fel.

Eller så kanske AI:n försöker bli syndabock för människan.

Du förstår, AI som vi utvecklar kan vara knepigt på det sättet, antingen av en slump eller inte.

Källa: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-homs-over-autonomous-self- köra-bilar-ocks/