AI-etik och strävan efter självkännedom inom AI

Är du självmedveten?

Jag skulle slå vad om att du tror att du är det.

Saken är förmodligen att få av oss är särskilt självmedvetna. Det finns ett intervall eller en grad av självmedvetenhet och vi alla påstås variera i hur skarpsinnigt självmedvetna vi är. Du kanske tror att du är helt självmedveten och bara är marginellt så. Du kanske är lite självmedveten och inser att det är ditt mentala tillstånd.

Under tiden, i den översta delen av spektrumet, kan du tro att du är helt självmedveten och faktiskt är ungefär lika självmedveten som de kommer. Bra för dig.

På tal om det, vad hjälper det att vara mycket självmedveten?

Enligt forskning som publicerats i Harvard Business Review (HBR) av Tasha Eurich, du enligt uppgift kan fatta bättre beslut, du är mer säker på dina beslut, du är starkare i din kommunikationskapacitet och mer effektiv överlag (per artikel med titeln "What Self-Awareness Really Is (and How) att odla det)." Bonusfaktorn är att de med sträng självkännedom sägs vara mindre benägna att fuska, stjäla eller ljuga. I den meningen finns det två olika sätt att avvärja att vara en skurk eller en skurk, tillsammans med strävar efter att bli en bättre människa och försköna dina medmänniskor.

Allt detta prat om självmedvetenhet väcker en något uppenbar fråga, nämligen vad betecknar uttrycket självmedvetenhet egentligen. Du kan lätt hitta massor av olika definitioner och tolkningar om komplexet och ska vi säga grötig konstruktion som innebär att vara självmedveten. Vissa skulle förenkla saken genom att antyda att självmedvetenhet består av att övervaka ditt eget jag, att veta vad du själv håller på med. Du är mycket medveten om dina egna tankar och handlingar.

Förmodligen, när en person inte är självmedveten, skulle en person inte inse vad de gör, och inte heller varför, och inte heller vara medveten om vad andra människor har att säga om dem. Jag är säker på att du har träffat människor som är så här.

Vissa människor verkar gå på denna jord utan en aning om vad de själva gör, och de har inte heller en sken av vad andra säger om dem. Jag antar att du skulle kunna hävda att de är som en heads-down laddande tjur i en delikat brytbar butik. Vi tenderar vanligtvis att tro att tjuren inte vet vad den gör och förblir omedveten om andras synpunkter om inte de andra försöker fysiskt manövrera eller hålla in den aningslösa varelsen.

Det sägs att självmedvetenhet kan vara något rekursivt.

Låt mig skissera ett exempel för att illustrera denna rekursion. Du är mitt uppe i att titta på en ganska absorberande kattvideo på din smartphone (alla gör det här, verkar det som). Vissa människor skulle inte ha några andra uppenbara tankar än de underbara hjärtvärmande upptågen hos dessa älsklingar. Samtidigt är alla med lite självkännedom medvetna om att de tittar på en kattvideo. De kanske också är medvetna om att andra runt omkring dem noterar att de tittar på en kattvideo.

Lägg märke till att du kan vara självmedveten och fortfarande vara nedsänkt i en ska vi säga en viss primär aktivitet. Den primära aktiviteten i det här fallet är att titta på kattvideon. Sekundärt, och samtidigt, kan du tänka på att du faktiskt tittar på en kattvideo. Du kan också bära tanken på att andra observerar dig när du tittar på den helt underhållande kattvideon. Du behöver inte nödvändigtvis stoppa en aktivitet, som att sluta titta på kattvideon, för att sedan separat överväga att du tittar på (eller bara tittade på) en kattvideo. De tankarna kan till synes förekomma parallellt med varandra.

Ibland kan vår självmedvetenhet dock sparka oss ur eller åtminstone avbryta en primär mental aktivitet. Kanske, medan du tänker på att du tittar på kattvideon, zoneras ditt sinne delvis ut eftersom det är överansträngt att enbart koncentrera sig på själva videon. Du väljer att sedan spola tillbaka videon för att återbesöka den del du såg men som du blev mentalt distraherad från att helt förstå. Självinsikt störde din primära mentala aktivitet.

Okej, vi är nu redo för att de rekursiva aspekterna ska uppstå.

Är du redo?

Du tittar på en kattvideo. Din självkännedom informerar dig om att du tittar på en kattvideo och att andra tittar på dig när du tittar på videon. Det är status quo.

Därefter gör du ytterligare ett mentalt språng. Du börjar tänka på din självkännedom. Du är självmedveten om att du engagerar din självmedvetenhet. Så här går det till: Funderar jag för mycket på att tänka på när jag tittar på kattvideon, frågar du dig själv förtvivlat? Detta är ytterligare ett lager av självmedvetenhet. Självkännedom rankas ovanpå annan självkännedom.

Det finns ett gammalt talesätt som säger att det är sköldpaddor hela vägen ner. För självkännedomsfenomen kan du vara:

  • Inte medveten om dig själv
  • Självmedveten om dig själv
  • Självmedveten om din självmedvetenhet om dig själv
  • Självmedveten om att du är självmedveten om din självmedvetenhet om dig själv
  • Ad Infinitum (dvs och så vidare)

Du kanske har insett att jag tidigare subtilt påpekade att det verkar finnas två huvudkategorier av att vara självmedveten. En speciell teori postulerar att vi har en sorts inre självmedvetenhet som fokuserar på våra inre tillstånd, och vi har också en extern självmedvetenhet som hjälper till att mäta uppfattningarna om oss hos dem runt omkring oss som ser oss.

Enligt HBR-artikeln, här är en snabb skildring av de teoretiserade två typerna av självmedvetenhet: "Den första, som vi kallade inre självkännedom, representerar hur tydligt vi ser våra egna värderingar, passioner, ambitioner, passform med vår miljö, reaktioner (inklusive tankar, känslor, beteenden, styrkor och svagheter) och inverkan på andra." Och under tiden är den andra: "Den andra kategorin, yttre självkännedom, betyder att förstå hur andra människor ser på oss, i termer av samma faktorer som anges ovan. Vår forskning visar att människor som vet hur andra ser dem är skickligare på att visa empati och ta andras perspektiv.”

En praktisk två-av-två-matris eller fyrkvadrat kan härledas genom att hävda att både den interna och externa självmedvetenheten sträcker sig från högt till lågt, och du kan para de två kategorierna mot varandra. HBR-forskningen indikerar att du sägs vara en av dessa fyra arketyper för självmedvetenhet:

  • Introspektör: Låg extern självmedvetenhet + hög intern självmedvetenhet
  • Sökande: Låg extern självmedvetenhet + låg intern självmedvetenhet
  • Pleaser: Hög extern självmedvetenhet + låg intern självmedvetenhet
  • Medveten: Hög extern självmedvetenhet + hög intern självmedvetenhet

Höjdpunkten skulle vara den "medvetna" arketypen som består av att vara i den övre delen av att vara externt självmedveten och likaså i toppen av att vara internt självmedveten. För att förtydliga, du uppnår inte denna hyllade hållning på ett nödvändigtvis permanent sätt. Du kan glida fram och tillbaka mellan att vara hög och låg, bland både den interna och externa självmedvetenhetssfären. Det kan bero på tiden på dygnet, situationen du befinner dig i och en mängd andra framträdande faktorer.

Nu när vi vänligt har täckt några grundläggande element om självmedvetenhet, kan vi försöka knyta detta till ämnet etiska beteenden.

Det vanliga påståendet om att vara självmedveten är att du är mer benägen att vara överbord när du är självmedveten. Detta innebär, som redan nämnts, att du är mindre benägen för negativa etiska beteenden som att stjäla, fuska och ljuga. Skälet för denna tendens är att aktiviteten i din självmedvetenhet skulle få dig att inse att ditt eget beteende är motbjudande eller oetiskt. Inte bara fångar du dig själv när du svänger in i lerigt oetiskt vatten, utan du är också benägen att styra dig själv tillbaka ut och in på torrt land (det etiska territoriets helighet), så att säga.

Din självkännedom hjälper dig att utöva självkontroll.

En kontrast skulle förmodligen vara när det finns liten eller ingen självmedvetenhet, vilket tyder på att någon kanske är omedveten om sin lutning mot oetiska beteenden. Du kan hävda att en sådan omedveten person kanske inte inser att de presterar dåligt. I likhet med tjuren i sönderdelningsbutiken, tills något mer öppet fångar deras uppmärksamhet är det osannolikt att de självreglerar sig själva.

Alla köper förresten inte in på det här. Vissa skulle hävda att självmedvetenhet lika lätt kan appliceras på att vara oetisk som att vara etisk. Till exempel kan en illgärare vara helt självmedveten och njuter av att de utför felet. Deras självmedvetenhet driver dem till och med allt hårdare mot större och större handlingar av skändliga missförhållanden.

Det är mer molnighet på detta än vad som direkt kan träffa ögat. Anta att någon är mycket självmedveten, men de är omedvetna om de etiska sederna i ett givet samhälle eller kultur. På det sättet har de ingen etisk vägledning, trots att de är självmedvetna. Eller, om du vill, kanske personen känner till de etiska föreskrifterna och inte tror att de gäller dem. De anser sig vara unika eller utanför gränserna för konventionellt etiskt tänkande.

Runt och runt går det.

Självkännedom skulle kunna tolkas som ett tvåeggat etikorienterat svärd, skulle vissa ivrigt betona.

För tillfället, låt oss gå med den glada ansiktsversionen som består av självkännedom i stort som vägleder eller knuffar oss mot etiska beteenden. Allt annat lika kommer vi att göra det fräcka antagandet att ju mer självmedvetenhet det finns, desto mer etiskt lutande kommer du att bli. Det verkar verkligen glädjande och inspirerande att önska det så.

Låt oss växla och ta in artificiell intelligens (AI) i bilden.

Vi befinner oss vid en tidpunkt i den här diskussionen för att koppla ihop alla pågående förvecklingar med den spirande sfären av etisk AI, även känd som AI-etiken. För min pågående och omfattande bevakning av AI-etik, se länken här och länken här, bara för att nämna några.

Begreppet etisk AI innebär att fältet etik och etiskt beteende sammanflätas med tillkomsten av AI. Du har säkert sett rubriker som har väckt varningsklockor om AI som är full av orättvisor och olika fördomar. Till exempel finns det farhågor om att AI-baserade ansiktsigenkänningssystem ibland kan uppvisa ras- och könsdiskriminering, vanligtvis som ett resultat av hur de underliggande maskininlärnings- (ML) och djupinlärnings- (DL)-faciliteterna tränades och användes (se min analys på denna länk här).

För att försöka stoppa eller åtminstone mildra den pell-mell rush mot AI för dåligt, som består av AI-system som antingen oavsiktligt eller ibland avsiktligt utformats för att agera dåligt, har det nyligen varit brådskande att tillämpa etiska föreskrifter för utveckling och användning av AI. Det allvarliga målet är att ge etisk vägledning till AI-utvecklare, plus företag som bygger eller fält AI, och de som är beroende av AI-applikationer. Som ett exempel på de etiska AI-principerna som skapas och antas, se min bevakning på länken här.

Ge ett reflekterande ögonblick för att överväga dessa tre mycket avgörande frågor:

  • Kan vi få AI-utvecklare att anamma etiska AI-principer och använda dessa riktlinjer i praktiken?
  • Kan vi få företag som tillverkar eller arbetar med AI att göra likadant?
  • Kan vi få de som använder AI att på samma sätt vara medvetna om etiska AI-aspekter?

Jag skulle ogenerat säga detta, det är en stor order.

Spänningen med att göra AI kan övermanna varje aning om uppmärksamhet mot AI-etiken. Tja, inte bara spänningen, utan att tjäna pengar är också en del av den ekvationen. Du kanske blir förvånad över att veta att vissa inom AI-världen är benägna att säga att de kommer att ta itu med de etiska AI-"grejerna" när de väl har fått ut sina AI-system. Detta är det typiska teknikmantrat att se till att misslyckas snabbt och misslyckas ofta tills du får det rätt (förhoppningsvis får det rätt).

Naturligtvis släpper de som summariskt pressar etiskt tvivelaktig AI på allmänheten ut hästen ur ladugården. Deras proklamerade utsträckta idé är att AI för dåligt kommer att fixas efter att den är i dagligt bruk, vilket skadligt är försenat eftersom hästen redan villigt galopperar runt. Skador kan göras. Det finns också en ökad chans att ingenting kommer att fixas eller justeras medan AI:n används. En ofta förekommande ursäkt är att pyssel med AI vid det tillfället kan göra det ännu värre när det gäller att redan oetiskt algoritmiskt beslutsfattande (ADM) går helt av stapeln.

Vad kan göras för att få nyttan och vitaliteten av att ha etisk AI som ett starkt lysande och vägledande ljus i medvetandet hos dem som bygger AI, använder AI och använder AI?

Svar: Självmedvetenhet.

Ja, tanken är att om människor var mer självmedvetna om hur de använder eller interagerar med AI, kan det öka deras benägenhet att vilja att etisk AI ska vara normen. Detsamma kan sägas om AI-utvecklarna och företagen relaterade till AI-system. Om de var mer självmedvetna om vad de gör, kanske de skulle anamma AI-etiken mer.

En del av logiken som redan stipulerats är att att vara självmedveten ger en tendens till att vara en etiskt bättre person och även att undvika att vara en etiskt usel person. Om vi ​​kan hålla den premissen igång, innebär det att AI-utvecklare som är mer benägna till självmedvetenhet därför kommer att vara benägna till etiska beteenden och därför vara benägna att producera etiskt sund AI.

Är det en bro för långt för dig?

Vissa skulle säga att indirektiteten är lite mycket. Den orimliga kedjan av kopplingar mellan att vara självmedveten, att vara etiskt dygdig och att tillämpa etiska föreskrifter på AI är kanske svår att svälja. Ett motargument är att det inte kunde skada att försöka.

Skeptiker skulle säga att en AI-utvecklare kan vara självmedveten och möjligen vara mer etiskt sinnad, men de kommer inte nödvändigtvis att ta ett steg mot att tillämpa det mentala lägret på sederna i etisk AI. Svaret på den betänkligheten är att om vi kan publicera och popularisera etiska AI-frågor, kommer den annars till synes svaga kopplingen att bli mer uppenbar, förväntad och möjligen bli standardsättet att göra saker på när det kommer till att skapa AI.

Jag ska nu lägga till en twist till denna saga. Vridningen kan få ditt huvud att snurra. Se till att du sitter väl och är förberedd på vad jag ska ange.

Vissa påpekar att vi borde bygga in etisk AI direkt i själva AI:n.

Du kanske inte blir överlycklig av det uttalandet. Låt oss packa upp det.

En programmerare kan skapa ett AI-system och göra det med sin egen programmeringssjälvkännedom om att försöka förhindra AI från att förkroppsliga fördomar och orättvisor. Istället för att bara plöja iväg på programmeringen, vakar utvecklaren över sin egen axel för att fråga om det tillvägagångssätt som de tar kommer att resultera i den nödvändiga frånvaron av negativa element i AI.

Bra, vi har en AI-utvecklare som verkar vara tillräckligt självmedveten, som har försökt att ta till sig etiska beteenden och har sett ljuset för att inkludera etiska föreskrifter när de skapar sitt AI-system.

Gör en vinst för Ethical AI!

Allt bra, men här är något som kan hända senare. AI:n fälts in och tas i dagligt bruk. En del av AI inkluderade en komponent för att kunna "lära" i farten. Detta innebär att AI:n kan justera sig själv baserat på ny data och andra aspekter av den ursprungliga programmeringen. Som en snabb sida, detta betyder inte att AI är kännande. Vi har inte kännande AI. Ignorera de där otäcka rubrikerna som säger att vi gör det. Ingen kan säga om vi kommer att ha kännande AI, och ingen kan heller tillräckligt förutsäga när om någonsin det kommer att hända.

För att återvända till vår berättelse, var AI målmedvetet utformad för att förbättra sig själv under pågående. Ganska praktiskt begrepp. Istället för att programmerare måste ständigt göra förbättringar, tillåter de AI-programmet att göra det av sig självt (wow, är det att klara dig själv?).

Under tiden som AI tum för tum justerar sig själv, visar det sig att olika smutsiga orättvisor och fördomar smyger sig in i AI-systemet genom sina egna förändringshandlingar. Medan programmeraren ursprungligen höll dessa försåtliga aspekter borta, formulerar de sig nu på grund av att AI-justeringen i farten. Tyvärr kan detta hända på ett så subtilt sätt bakom kulisserna att ingen blir klokare. De som tidigare kan ha gett grönt ljus till AI:n efter den första uttömmande testningen, är nu blint omedvetna om att AI:n har gått på den ruttna vägen för AI för dåligt.

Ett sätt att antingen förhindra eller åtminstone fånga denna oönskade uppkomst skulle vara att bygga in en typ av etisk AI-dubbelcheckare i AI:n. En komponent i AI:n är programmerad att titta på AI:ns beteende och upptäcka om oetisk ADM börjar dyka upp. Om så är fallet kan komponenten skicka ut en varning till AI-utvecklarna eller göra det till ett företag som kör AI-systemet.

En mer avancerad version av den här komponenten kan försöka reparera AI:n. Detta skulle vara en justering av justeringarna, förvandla de oetiska aspekterna tillbaka till de rätta etiska parametrarna. Du kan föreställa dig att den här typen av programmering är knepig. Det finns en chans att det kan komma på avvägar, eventuellt förvandlas oetiskt till djupt oetiskt. Det finns också möjligheten att en falsk positiv triggar komponenten till handling och kanske förstör saker och ting därefter.

Hur som helst, utan att fastna i hur denna dubbelcheckare skulle fungera, kommer vi att göra en djärv förklaring om det. Du kan föreslå att AI på något begränsat sätt sägs vara självmedveten.

Oj, det är stridsord för många.

Den rådande uppfattningen av nästan alla är att dagens AI inte är självmedveten. Punkt, punkt. Tills vi når kännande AI, som vi inte vet om eller när det kommer att inträffa, finns det ingen typ av AI som är självmedveten. Inte minst i betydelsen människoorienterad självmedvetenhet. Föreslå inte ens att det kan hända.

Jag håller verkligen med om att vi måste vara försiktiga med att antropomorfiera AI. Jag ska berätta mer om den oro om ett ögonblick.

Under tiden, om du för diskussionens skull är villig att använda utfasningen "självmedveten" på ett löst sätt, tror jag att du lätt kan se varför AI kan sägas följa den övergripande uppfattningen om själv- medvetenhet. Vi har en del av AI:n som övervakar resten av AI:n och håller koll på vad resten av AI:n håller på med. När resten av AI:n börjar gå överbord försöker övervakningsdelen upptäcka detta. Dessutom kan AI-övervakningsdelen eller dubbelcheckaren styra resten av AI:n tillbaka till rätt körfält.

Verkar det inte lite som att titta på kattvideorna och ha självinsikten om att du gjorde det?

Det finns en bekant klang i det.

Vi kan utöka detta ännu mer. AI-dubbelcheckarkomponenten är inte bara programmerad för att observera beteendet hos resten av AI:n utan noterar också beteendet hos de som använder AI:n. Hur mår användarna när de använder AI? Anta att vissa användare uttrycker indignation över att AI verkar diskriminera dem. AI-dubbelcheckaren kanske kan ta reda på detta och använda det som en annan röd flagga om resten av AI:n som går vilse.

Detta tar upp kategoriseringarna av den interna självmedvetenheten och den externa självmedvetenheten.

AI-dubbelcheckaren skannar internt och externt för att ta reda på om resten av AI:n har tagit sig ut i oroande hav. Detekteringen kommer att höja en flagga eller göra att en självkorrigering antas.

Låt oss lägga till ytterligare en något häpnadsväckande tillägg. Vi bygger en annan AI-dubbelcheckare som är avsedd att dubbelkolla AI-kärn-dubbelcheckaren. Varför då? Tja, anta att AI-dubbelcheckaren verkar vackla eller misslyckas med att göra sitt jobb. Dubbelcheckarens AI-dubbelcheckare skulle försöka upptäcka detta fel och vidta nödvändiga åtgärder i enlighet med detta. Välkommen till den rekursiva karaktären av självmedvetenhet, kanske vissa stolt deklarerar, som visas i ett beräknings-AI-system.

För de av er som redan är på kanten av er stol om detta, är den sista kommentaren för tillfället att vi kan försöka föreslå att om ni gör AI-system "självmedvetna" kommer de potentiellt att dras mot etiskt beteende. Gör de detta på en medveten basis? Avgjort, nej. Gör de detta på beräkningsbasis? Ja, även om vi måste vara tydliga med att det inte är av samma kaliber som mänskligt beteende.

Om du känner dig obekväm med att begreppet självmedvetenhet felaktigt förvrängs för att få det att passa in i ett beräkningsschema, är dina farhågor om detta väl noterade. Huruvida vi ska sätta stopp för de pågående AI-ansträngningarna som utnyttjar begreppet är en annan öppen fråga. Du kan övertygande hävda att det åtminstone verkar leda oss mot ett bättre resultat av vad AI sannolikt kommer att göra. Vi måste dock ha vidöppna ögon när detta sker.

Antar att vi måste se hur det hela blir. Kom tillbaka till detta om fem år, tio år och femtio år och se om ditt tänkande har förändrats i den kontroversiella frågan.

Jag inser att detta har varit en något besvärlig undersökning av ämnet och du kanske längtar efter några dagliga exempel. Det finns en speciell och säkerligen populär uppsättning exempel som ligger mig varmt om hjärtat. Du förstår, i min egenskap av expert på AI inklusive de etiska och juridiska konsekvenserna, blir jag ofta ombedd att identifiera realistiska exempel som visar upp AI-etiska dilemman så att ämnets något teoretiska natur kan lättare förstås. Ett av de mest suggestiva områdena som på ett levande sätt presenterar detta etiska AI-problem är tillkomsten av AI-baserade äkta självkörande bilar. Detta kommer att fungera som ett praktiskt användningsfall eller exempel för omfattande diskussioner om ämnet.

Här är en anmärkningsvärd fråga som är värd att överväga: Belyser tillkomsten av AI-baserade äkta självkörande bilar något om att AI har ett sken av "självmedvetenhet" och i så fall vad visar detta?

Tillåt mig en stund att packa upp frågan.

Observera först att det inte finns en mänsklig förare inblandad i en äkta självkörande bil. Tänk på att äkta självkörande bilar körs via ett AI-körsystem. Det finns inte ett behov av en mänsklig förare vid ratten, och det finns inte heller en bestämmelse för en människa att köra fordonet. För min omfattande och pågående bevakning av Autonomous Vehicles (AV) och speciellt självkörande bilar, se länken här.

Jag vill ytterligare klargöra vad som menas när jag hänvisar till riktiga självkörande bilar.

Förstå nivåerna av självkörande bilar

Som ett förtydligande är sanna självkörande bilar sådana som AI kör bilen helt på egen hand och det finns ingen mänsklig hjälp under köruppgiften.

Dessa förarlösa fordon betraktas som nivå 4 och nivå 5 (se min förklaring på denna länk här), medan en bil som kräver en mänsklig förare för att dela köransträngningen vanligtvis anses vara på nivå 2 eller nivå 3. De bilar som delar på köruppgiften beskrivs som halvautonoma och innehåller vanligtvis en mängd olika automatiserade tillägg som kallas ADAS (Advanced Driver-Assistance Systems).

Det finns ännu inte en riktig självkörande bil på nivå 5, som vi ännu inte vet om det är möjligt att uppnå och inte heller hur lång tid det kommer att ta sig dit.

Under tiden försöker nivå 4-ansträngningarna gradvis få lite dragkraft genom att genomgå mycket smala och selektiva offentliga vägförsök, även om det finns kontroverser om huruvida denna testning ska vara tillåten i sig (vi är alla liv-eller-död-marsvin i ett experiment. som äger rum på våra motorvägar och motorvägar, menar vissa, se min täckning på denna länk här).

Eftersom semi-autonoma bilar kräver en mänsklig förare, kommer antagandet av dessa typer av bilar inte att vara märkbart annorlunda än att köra konventionella fordon, så det finns inte mycket nytt i sig att täcka om dem om detta ämne (men som du kommer att se på ett ögonblick är de punkter som nästa görs generellt tillämpliga)

För semi-autonoma bilar är det viktigt att allmänheten måste varnas om en oroande aspekt som har uppstått på sistone, nämligen att trots de mänskliga förarna som fortsätter att lägga upp videor om sig själva somna vid ratten i en nivå 2 eller nivå 3 bil , vi måste alla undvika att bli vilseledda till att tro att föraren kan ta bort sin uppmärksamhet från köruppgiften medan han kör en semi-autonom bil.

Du är den ansvariga parten för fordonets körning, oavsett hur mycket automatisering som kan kastas till nivå 2 eller nivå 3.

Självkörande bilar och AI med så kallad självkännedom

För nivå 4 och 5 verkliga självkörande fordon finns det ingen mänsklig förare som är involverad i köruppgiften.

Alla passagerare kommer att vara passagerare.

AI kör körningen.

En aspekt att omedelbart diskutera innebär det faktum att AI involverad i dagens AI-körsystem inte är känslig. Med andra ord är AI helt och hållet en kollektiv datorbaserad programmering och algoritmer, och kan med säkerhet inte resonera på samma sätt som människor kan.

Varför är denna extra tonvikt om att AI inte är känslig?

Eftersom jag vill understryka att när jag diskuterar AI-drivsystemets roll tillskriver jag inte mänskliga egenskaper till AI. Tänk på att det idag finns en pågående och farlig tendens att antropomorfisera AI. I grund och botten tilldelar människor mänsklig känsla till dagens AI, trots det obestridliga och obestridliga faktum att ingen sådan AI finns än.

Med det förtydligandet kan du föreställa dig att AI-körsystemet inte på något sätt "vet" om körningens aspekter. Körning och allt det innebär kommer att behöva programmeras som en del av hårdvaran och mjukvaran i den självkörande bilen.

Låt oss dyka in i den myriad av aspekter som kommer att spela om detta ämne.

För det första är det viktigt att inse att inte alla AI självkörande bilar är likadana. Varje biltillverkare och självkörande teknikföretag tar sitt tillvägagångssätt för att utforma självkörande bilar. Som sådan är det svårt att göra svepande uttalanden om vad AI-körsystem kommer att göra eller inte.

Dessutom, närhelst man säger att ett AI-körsystem inte gör någon speciell sak, kan detta senare övertas av utvecklare som faktiskt programmerar datorn att göra just det. Steg för steg förbättras och utökas AI-körsystemen gradvis. En befintlig begränsning idag kanske inte längre existerar i en framtida iteration eller version av systemet.

Jag litar på att det ger en tillräcklig litania av varningar för att ligga till grund för det jag ska berätta.

Vi är redo att göra en djupdykning i självkörande bilar och etiska AI-frågor som innebär den ögonbrynshöjande föreställningen att AI har ett slags självkännedom om du så vill.

Låt oss använda ett enkelt exempel. En AI-baserad självkörande bil är på gång på dina grannskapsgator och verkar köra säkert. Till en början hade du ägnat särskild uppmärksamhet åt varje gång du lyckades få en skymt av den självkörande bilen. Det autonoma fordonet stack ut med sitt rack av elektroniska sensorer som inkluderade videokameror, radarenheter, LIDAR-enheter och liknande. Efter många veckor av den självkörande bilen som kryssar runt i ditt samhälle, märker du nu knappt det. För dig är det bara en annan bil på de redan trafikerade allmänna vägarna.

För att du inte tror att det är omöjligt eller osannolikt att bli bekant med att se självkörande bilar, jag har ofta skrivit om hur lokalerna som ligger inom ramen för självkörande bilprover gradvis har vant sig vid att se de piffade fordonen, se min analys på denna länk här. Många av lokalbefolkningen gick så småningom från mungapande hänförd blick till att nu avge en expansiv gäspning av tristess för att bevittna de slingrande självkörande bilarna.

Förmodligen är den främsta anledningen just nu till att de kan lägga märke till de autonoma fordonen på grund av irritations- och irritationsfaktorn. De bokförda AI-körsystemen ser till att bilarna följer alla hastighetsgränser och trafikregler. För hektiska mänskliga förare i sina traditionella människodrivna bilar blir man irriterad ibland när man sitter fast bakom de strikt laglydiga AI-baserade självkörande bilarna.

Det är något vi alla kan behöva vänja oss vid, med rätta eller fel.

Tillbaka till vår berättelse. En dag, anta att en självkörande bil i din stad eller stad närmar sig en stoppskylt och inte verkar sakta ner. Himmel, det ser ut som att AI-körsystemet kommer att ha den självkörande bilplogen precis förbi stoppskylten. Tänk om en fotgängare eller cyklist befann sig någonstans i närheten och blev överraskad av att den självkörande bilen inte skulle stanna ordentligt. Skamlig. Farlig!

Och olagligt.

Låt oss nu överväga en AI-komponent i AI-körsystemet som fungerar som en stil av självmedveten dubbelcheckare.

Vi kommer att ta en stund att gräva i detaljerna om vad som händer inuti AI-körsystemet. Det visar sig att videokamerorna monterade på det autonoma fordonet upptäckte vad som kanske verkade vara en stoppskylt, men i det här fallet skymmer ett övervuxet träd rikligt stoppskylten. Maskininlärnings- och djupinlärningssystemet som ursprungligen tränades på stoppskyltar utformades på mönster av i huvudsak fullständiga stoppskyltar, i allmänhet fria. Vid beräkningsundersökning av videobilderna tilldelades en låg sannolikhet att ett stopptecken fanns på den specifika platsen (som en extra komplikation, och ytterligare förklaring, var detta en nyupplagd stoppskylt som inte förekom på de tidigare förberedda digitala kartorna som AI-körsystemet förlitade sig på).

Sammantaget bestämde sig AI-körsystemet beräkningsmässigt för att fortsätta som om stoppskylten antingen inte existerade eller möjligen ett tecken av annat slag som kanske liknade ett stopptecken (detta kan hända och händer med en viss frekvens).

Men tack och lov övervakade den självmedvetna dubbelcheckaren AI-körsystemets aktiviteter. Efter beräkningsgranskning av data och bedömning av resten av AI, valde denna komponent att åsidosätta det normala förloppet och beordrade istället AI-körsystemet att komma till ett lämpligt stopp.

Ingen skadades och ingen olaglig handling uppstod.

Man kan säga att den självmedvetna dubbelcheckaren för AI agerade som om den var en inbäddad juridisk agent och försökte säkerställa att AI-körsystemet följde lagen (i det här fallet en stoppskylt). Säkerheten var naturligtvis också nyckeln.

Det exemplet visar förhoppningsvis hur den uttänkta AI självmedvetna dubbelcheckaren kan fungera.

Vi kan härnäst kort överväga ett mer framträdande etiskt AI-exempel som illustrerar hur AI-självmedveten dubbelkontroll kan tillhandahålla en etisk AI-orienterad inbäddad funktionalitet.

För det första, som bakgrund, är en av de farhågor som har uttryckts om tillkomsten av AI-baserade självkörande bilar att de kan komma att användas på ett något oavsiktligt diskriminerande sätt. Här är hur. Anta att dessa självkörande bilar är inställda för att försöka maximera sin intäktspotential, vilket är avgjort vettigt för dem som driver en flotta av tillgängliga självkörande bilar för samåkning. Flottans ägare skulle vilja ha en lönsam verksamhet.

Det kan vara så att de roaming självkörande bilarna gradvis börjar tjäna vissa delar av samhället och inte andra områden i en viss stad eller stad. De gör det för att tjäna pengar, eftersom fattigare områden kanske inte är lika inkomstbringande som de rikare delarna av orten. Detta är inte en uttrycklig strävan att tjäna vissa områden och inte tjäna andra. Istället uppstår det organiskt när det gäller de självkörande bilarnas AI "räkna ut" beräkningsmässigt att det finns mer pengar att tjäna genom att koncentrera sig på de geografiskt högre betalda områdena. Jag har diskuterat denna samhälleliga etiska angelägenhet i min krönika, som på länken här.

Anta att vi har lagt till en AI självmedveten dubbelcheckare i AI-körsystemen. Efter ett tag märker AI-komponenten beräkningsmässigt ett mönster av var de självkörande bilarna strövar. Särskilt i vissa områden men inte i andra. Baserat på att ha kodats med några etiska AI-föreskrifter, börjar den självmedvetna dubbelcheckaren för AI att guida de självkörande bilarna till andra delar av staden som annars försummades.

Detta illustrerar AI självmedvetna uppfattning och gör det i kombination med det etiska AI-elementet.

Ytterligare ett sådant exempel kan ge insikt om att denna etiska AI-övervägande också kan vara en ganska nykter och allvarlig förgrening på liv eller död.

Tänk på en nyhetsrapport om en nyligen inträffad bilolycka. Enligt uppgift var en mänsklig förare på väg upp till en trafikerad korsning och fick grönt ljus att fortsätta rakt fram. En annan förare kom tunnande förbi rött ljus och kom in i korsningen när de inte skulle ha gjort det. Föraren med grönt ljus insåg i sista stund att den här andra bilen skulle köra kraftigt in i hans bil.

Enligt denna utsatta förare beräknade han medvetet att han antingen skulle bli påkörd av den andra bilen, eller så kunde han svänga för att försöka undvika intrångaren. Problemet med att vika var att det fanns fotgängare i närheten som skulle utsättas för fara.

Vilket val skulle du göra?

Du kan förbereda dig på att bli påkörd och hoppas att skadan inte lemlästar eller dödar dig. Å andra sidan kan du svänga radikalt bort, men allvarligt äventyra och eventuellt skada eller döda närliggande fotgängare. Detta är ett svårt problem, som omfattar moraliskt omdöme, och är helt genomsyrat av etiska (och juridiska) implikationer.

Det finns ett allmänt etiskt problem som täcker denna typ av dilemma, berömt eller kanske ökänt kallat Trolley Problemet, se min omfattande bevakning på denna länk här. Det visar sig att det är ett etiskt stimulerande tankeexperiment som går tillbaka till tidigt 1900-tal. Som sådant har ämnet funnits ett bra tag och har på senare tid blivit allmänt förknippat med tillkomsten av AI och självkörande bilar.

Ersätt den mänskliga föraren med ett AI-körsystem inbyggt i en självkörande bil.

Föreställ dig då att en självkörande AI-bil kommer in i en korsning och sensorerna i det autonoma fordonet plötsligt upptäcker en människodriven bil som farligt kommer direkt genom ett rött ljus och siktar på den förarlösa bilen. Antag att den självkörande bilen har några passagerare inne i fordonet.

Vad vill du att AI ska göra?

Skulle AI-körsystemet välja att fortsätta framåt och bli plöjt in i (troligen skada eller kanske döda passagerarna inne i fordonet), eller vill du att AI-körsystemet ska ta en chans och svänga iväg, även om svängningsåtgärden tar det autonoma fordonet farligt mot närliggande fotgängare och kan skada eller döda dem.

Många av AI-tillverkarna av självkörande bilar tar ett öga i sanden när det gäller dessa etiska AI-blåsor. I stort sett skulle AI:n som för närvarande programmerats helt enkelt plöja framåt och bli våldsamt påkörd av den andra bilen. AI:n var inte programmerad att leta efter några andra undanmanövrar.

Jag har förutspått upprepade gånger att denna se-ingen-ondska hör-ingen-ondska hållning hos AI-tillverkarna för självkörande bilar så småningom kommer att komma runt och bita dem (min analys är kl. länken här). Du kan förvänta dig rättegångar som involverar sådana bilolyckor som kommer att försöka ta reda på vad AI var programmerad att göra. Var företaget eller AI-utvecklarna eller flottoperatören som utvecklade och ställde in AI:n försumlig eller ansvarig för vad AI:n gjorde eller inte gjorde? Du kan också förutse en etisk AI-medvetenhet för allmänheten om eldstorm när den här typen av fall inträffar.

In i detta etiska AI-dilemma kliver vår berömda AI självmedvetna dubbelcheckare som är etikorienterad. Kanske den här speciella AI-komponenten kan engagera sig i den här typen av omständigheter. Delen övervakar resten av AI-körsystemet och statusen för den självkörande bilen. När ett sådant här hemskt ögonblick uppstår fungerar AI-komponenten som en Trolley Problemlösare och ger vad AI-körsystemet ska göra.

Det är ingen lätt sak att koda, jag försäkrar dig.

Slutsats

Jag ska dela med dig av den sista tanken för nu om detta ämne.

Du kommer sannolikt att tycka att det är spännande.

Vet du om spegeltest?

Det är ganska välkänt inom studiet av självmedvetenhet. Andra namn för saken är spegelns självigenkänningstest, röda fläcktestet, rougetestet och relaterade fraser. Tekniken och tillvägagångssättet skapades ursprungligen i början av 1970-talet för att bedöma djurens självmedvetenhet. Djur som enligt uppgift har klarat testet inkluderar apor, vissa typer av elefanter, delfiner, skator och några andra. Djur som testades och enligt uppgift inte klarade testet inkluderar jättepandor, sjölejon etc.

Såhär är det.

När ett djur ser sig själv i en spegel, inser djuret att bilden som visas är av dem själva, eller tror djuret att det är ett annat djur?

Förmodligen känner djuret visuellt igen sin egen art, efter att ha sett andra av sitt eget slag, och kan därför tro att djuret som visas i spegeln är en kusin eller kanske en krigslysten konkurrent (särskilt om djuret morrar åt spegelbilden, som i tur verkar morra tillbaka på dem). Kanske har du sett din huskatt eller älskade husdjurshund göra detsamma när den ser sig själv i en hushållsspegel för första gången.

Vi skulle i alla fall anta att ett vilt djur aldrig har sett sig själv tidigare. Tja, detta är inte nödvändigtvis sant, eftersom djuret kanske fick en skymt av sig själv i en lugn vattenpöl eller via en glänsande klippformation. Men de anses vara mindre sannolika chanser.

Okej, vi vill på något sätt bedöma om ett djur kan komma på att det faktiskt är djuret som visas i spegeln. Fundera på den till synes enkla handlingen. Människor räknar ut i unga år att de finns och att deras existens visas genom att se sig själva i en spegel. De blir självmedvetna om sig själva. I teorin kanske du inte inser att du är du, förrän du ser dig själv i en spegel.

Kanske kan djur inte kognitivt bli självmedvetna på samma sätt. Det kan vara så att ett djur skulle se sig själv i en spegel och ständigt tro att det är något annat djur. Oavsett hur många gånger den ser sig själv, skulle den ändå tro att detta är ett annat djur än sig själv.

Trickdelen av detta kommer att spela. Vi sätter ett märke på djuret. Detta märke måste endast kunna ses när djuret ser sig själv i spegeln. Om djuret kan vrida sig eller vända sig och se märket på sig självt (direkt) förstör det experimentet. Dessutom kan djuret inte känna, lukta eller på något annat sätt upptäcka märket. Återigen, om de gjorde det skulle det förstöra experimentet. Djuret kan inte veta att vi sätter märket på det, eftersom det skulle antyda odjuret att något är där.

Vi vill begränsa saker och ting så att den enda möjliga anledningen till att märket kan upptäckas skulle vara att titta på sig själv i spegeln.

Aha, testet är nu klart. Djuret placeras framför en spegel eller vandrar till den. Om djuret efteråt försöker röra vid eller gräva vid märket, skulle vi rimligen dra slutsatsen att det enda sättet detta skulle inträffa är om djuret insåg att märket var på sig självt. Mycket få djurarter har lyckats klara detta test.

Det finns en hel del kritik mot testet. Om en mänsklig testare är i närheten kan de ge bort saker genom att stirra på märket, vilket kan få djuret att borsta eller känna efter det. En annan möjlighet är att djuret fortfarande tror att ett annat djur visas i spegeln, men det är av samma typ, och därmed undrar djuret om det också har ett märke som det på det andra djuret.

På och vidare går det.

Jag är säker på att du är glad över att veta detta och hädanefter kommer att förstå varför det finns en prick eller något konstigt märke på ett djur som annars inte skulle ha ett sådant märke. Vem vet, den kanske nyligen har avslutat ett spegeltestexperiment. Gratulera djuret, säkert, för att ha varit en generös deltagare.

Vad har något av det med AI-baserade självkörande bilar att göra?

Du kommer att gilla den här delen.

En självkörande bil åker på en lång motorväg. AI-körsystemet använder sensorer för att upptäcka annan trafik. Detta är en tvåfilig motorväg som har trafik som går norrgående i ett körfält och södergående i det andra körfältet. Ibland kommer bilar och lastbilar att försöka passera varandra, genom att gå in i motsatt körfält och sedan hoppa tillbaka till sitt rätta körfält.

Du har sett det här, du har utan tvekan gjort det här.

Jag slår vad om att nästa aspekt har hänt dig också. Framför den självkörande bilen står en av de där stora tankbilarna. Den är gjord av glänsande metall. Polerad och ren som en visselpipa. När du går bakom en sådan lastbil kan du se spegelbilden av din bil via tankbilens bakre del. Om du har sett detta vet du hur fascinerande det kan vara. Där är du, du och din bil, reflekterade i den spegelliknande reflektionen av baksidan av tankbilen.

Sätt dig ner för den galna twisten.

En självkörande bil kommer upp bakom tankbilen. Kamerorna upptäcker bilden av en bil som visas i den spegelliknande reflektionen. Oj, bedömer AI:n, är det en bil? Kommer det vid den självkörande bilen? När den självkörande bilen kommer närmare och närmare tankbilen verkar bilen komma närmare och närmare.

Oj, AI:n kan beräkningsmässigt beräkna att detta är en farlig situation och AI:n borde vidta undvikande åtgärder från detta galna oseriösa fordon. Du förstår, AI:n kände inte igen sig själv i spegeln. Den klarade inte spegeltestet.

Vad ska man göra? Kanske hoppar den AI självmedvetna dubbelcheckaren in i saken och försäkrar resten av AI-körsystemet att det bara är en ofarlig reflektion. Fara avvärjt. Världen är räddad. Framgångsrik passage av AI Mirror Test!

Med en tunga slutsats kan vi till och med föreslå att AI ibland är smartare eller åtminstone mer självmedveten än en genomsnittlig björn (även om de, till björnarnas förtjänst, vanligtvis klarar sig bra i spegeltestet, ofta efter att ha blivit vana vid deras reflektion i vattenpölar).

Rättelse, AI kanske kan vara mer självmedveten än jättepandor och sjölejon, men säg inte till djuren att de kan bli frestade att krossa eller slå sönder AI-system. Det vill vi inte, eller hur?

Källa: https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/