AI-etik och AI-lag som klargör vad som i själva verket är pålitlig AI

Förtroende är allt, säger man.

Den noterade filosofen Lao Tzu sa att de som inte litar tillräckligt mycket inte kommer att bli betrodda. Ernest Hemingway, en uppskattad romanförfattare, sa att det bästa sättet att ta reda på om du kan lita på någon är genom att lita på dem.

Samtidigt verkar det som att tillit är både värdefullt och skört. Förtroendet som man har kan kollapsa som ett korthus eller plötsligt spricka som en sprängd ballong.

Den forntida grekiske tragedianen Sofokles hävdade att förtroende dör men misstroen blomstrar. Den franske filosofen och matematikern Descartes hävdade att det är klokt att aldrig helt lita på dem som har lurat oss ens en gång. Miljardärsföretagsinvesteraren Warren Buffett uppmanade att det tar tjugo år att bygga upp ett pålitligt rykte och fem minuter att förstöra det.

Du kanske blir förvånad över att veta att alla dessa olika åsikter och provocerande åsikter om förtroende är avgörande för tillkomsten av artificiell intelligens (AI).

Ja, det finns något som gärna kallas pålitlig AI som fortsätter att få en hel del uppmärksamhet nuförtiden, inklusive handvridande catcalls från AI-området och även högljudda utbrott från dem utanför AI-världen. Den övergripande uppfattningen innebär om samhället kommer att vara villigt att lita på sådana som AI-system.

Förmodligen, om samhället inte kommer eller kan lita på AI, är oddsen att AI-system inte kommer att få dragkraft. AI som vi känner det för närvarande kommer att tryckas undan och bara samla damm. Chockerande nog kan AI hamna på skräphögen, historiskt sett nedflyttad till inget annat än ett desperat beprövat men spektakulärt misslyckat högteknologiskt experiment. Alla försök att återuppliva AI skulle potentiellt möta en enorm kamp i uppförsbacke och stoppas av alla slags invändningar och direkta protester. Tydligen på grund av bristande förtroende för AI.

Vad ska det vara, ska vi lita på AI, eller ska vi inte lita på AI?

Kommer vi i huvudsak att ha pålitlig AI?

Det är gamla och olösta frågor. Låt oss packa upp det.

AI-etik och kampen för pålitlig AI

Många inom AI tror att utvecklarna av AI-system kan få förtroende för AI genom att på lämpligt sätt utforma AI som är pålitlig. Kärnan är att du inte kan hoppas på att vinna förtroende om AI inte är till synes pålitlig vid start. Genom att skapa AI-system på ett sätt som uppfattas som pålitligt finns det en god chans att människor accepterar AI och använder AI.

En betänklighet som redan tjatar vid denna pålitliga AI-övervägande är att vi kanske redan befinner oss i en offentligt förtroendeunderskott när det kommer till AI. Man kan säga att den AI som vi redan har sett har grävt ett hål och slängt sönder förtroendet i enorma mängder. Istället för att börja på en tillräcklig bas av pålitlighet, kommer AI att på ett häpnadsväckande sätt behöva klättra ur underskottet, kliva efter varje önskat uns extra förtroende som kommer att behövas för att övertyga människor om att AI faktiskt är pålitlig.

In i denna utmaning kommer AI-etik och AI-lag.

AI Etik och AI Law kämpar kraftigt med att försöka lista ut vad som krävs för att göra AI pålitlig. Vissa föreslår att det finns en formel eller järnklädda lagar som kommer att få AI till den pålitliga himlen. Andra indikerar att det kommer att krävas hårt arbete och konsekvent och obönhörlig efterlevnad av AI-etik och AI-lagsprinciper för att få samhällets hyllade förtroende.

Den samtida gåtan om tillit till AI är inte särskilt ny i sig.

Du kan enkelt gå tillbaka till slutet av 1990-talet och spåra uppkomsten av en eftertraktad önskan om "trusted computing" från den tiden. Detta var en storskalig teknisk industriansträngning för att avgöra om alla datorer kunde tillverkas på ett sätt som skulle tolkas som pålitligt av samhället.

Nyckelfrågorna bestod av:

  • Kunde datorhårdvara göras så att den var pålitlig?
  • Kan programvaran skapas så att den var pålitlig?
  • Skulle vi kunna skapa globala nätverksdatorer som skulle vara pålitliga?
  • Och så vidare.

Den rådande känslan då och som fortsätter än i dag är att pålitlig datoranvändning förblir en typ av helig gral som tyvärr fortfarande inte är inom räckhåll (som noteras i en artikel med titeln "Trustworthy AI" i Kommunikation av ACM). Du kan på ett övertygande sätt hävda att AI är ännu en komponent i datortillförlitligheten, men ändå gör AI förtroendesträvan ännu mer utmanande och osäker. AI har blivit den potentiella spoilern i kampen för att uppnå pålitlig datoranvändning. Kanske den svagaste länken i kedjan så att säga.

Låt oss ta en snabb titt på varför AI har fått vår ilska över att vara mindre än pålitlig. Dessutom kommer vi att utforska grundsatserna i AI-etiken som vi hoppas ska hjälpa till att stödja det redan halvt undervattens upplevda förtroendet (eller bubblande misstroendet) för dagens AI. För min pågående och omfattande bevakning av AI-etik, se länken här och länken här, bara för att nämna några.

Ett särskilt segment eller del av AI-etiken som har fått mycket uppmärksamhet i media består av AI som uppvisar ogynnsamma fördomar och orättvisor. Du kanske är medveten om att när den senaste eran av AI började var det en enorm explosion av entusiasm för det som vissa nu kallar AI For Good. Tyvärr, i hälarna av den strömmande spänningen, började vi bevittna AI för dåligt. Till exempel har olika AI-baserade ansiktsigenkänningssystem avslöjats innehålla rasfördomar och genusfördomar, vilket jag har diskuterat på länken här.

Ansträngningar att slå tillbaka mot AI för dåligt pågår aktivt. Förutom högljudd laglig i strävan efter att tygla missförhållandena, finns det också en rejäl strävan mot att omfamna AI-etiken för att rätta till AI-elakheten. Tanken är att vi bör anta och godkänna viktiga etiska AI-principer för utveckling och fält av AI för att underskrida AI för dåligt och samtidigt förebåda och främja det föredragna AI For Good.

På ett relaterat begrepp är jag en förespråkare av att försöka använda AI som en del av lösningen på AI-problem, bekämpa eld med eld på det sättet att tänka. Vi kan till exempel bädda in etiska AI-komponenter i ett AI-system som kommer att övervaka hur resten av AI:n gör saker och därmed potentiellt fånga upp i realtid eventuella diskriminerande ansträngningar, se min diskussion på länken här. Vi skulle också kunna ha ett separat AI-system som fungerar som en typ av AI-etikmonitor. AI-systemet fungerar som en övervakare för att spåra och upptäcka när en annan AI går in i den oetiska avgrunden (se min analys av sådana förmågor på länken här).

Om ett ögonblick ska jag dela med dig av några övergripande principer som ligger till grund för AI-etiken. Det finns massor av den här typen av listor som flyter runt här och där. Man kan säga att det ännu inte finns en enda lista över universell överklagande och samstämmighet. Det är de olyckliga nyheterna. Den goda nyheten är att det åtminstone finns lättillgängliga AI-etiklistor och de tenderar att vara ganska lika. Sammantaget tyder detta på att vi genom en form av motiverad konvergens finner vår väg mot en allmän gemensamhet av vad AI-etik består av.

Låt oss först kortfattat täcka några av de övergripande etiska AI-föreskrifterna för att illustrera vad som borde vara ett viktigt övervägande för alla som skapar, använder eller använder AI.

Till exempel, som anges av Vatikanen i Rome Call For AI Ethics och som jag har täckt ingående på länken här, dessa är deras identifierade sex primära AI-etiska principer:

  • Öppenhet: I princip måste AI-system vara förklarliga
  • integration: Alla människors behov måste beaktas så att alla får nytta och alla individer kan erbjudas bästa möjliga förutsättningar att uttrycka sig och utvecklas.
  • Ansvar: De som designar och distribuerar användningen av AI måste fortsätta med ansvar och transparens
  • Opartiskhet: Skapa inte eller agera inte i enlighet med partiskhet, vilket skyddar rättvisa och mänsklig värdighet
  • Pålitlighet: AI-system måste kunna fungera tillförlitligt
  • Säkerhet och integritet: AI-system måste fungera säkert och respektera användarnas integritet.

Som anges av det amerikanska försvarsdepartementet (DoD) i deras Etiska principer för användning av artificiell intelligens och som jag har täckt ingående på länken här, dessa är deras sex primära AI-etiska principer:

  • Ansvarig: DoD-personal kommer att utöva lämpliga nivåer av omdöme och omsorg samtidigt som de förblir ansvarig för utveckling, implementering och användning av AI-kapacitet.
  • Rättvis: Avdelningen kommer att vidta medvetna åtgärder för att minimera oavsiktlig fördom i AI-kapacitet.
  • Spårbar: Avdelningens AI-kapacitet kommer att utvecklas och distribueras så att relevant personal har en lämplig förståelse för tekniken, utvecklingsprocesser och operativa metoder som är tillämpliga på AI-kapacitet, inklusive transparenta och revisionsbara metoder, datakällor och designprocedurer och dokumentation.
  • Pålitlig: Avdelningens AI-förmågor kommer att ha explicita, väldefinierade användningsområden, och säkerheten, säkerheten och effektiviteten för sådana förmågor kommer att bli föremål för testning och försäkran inom de definierade användningarna över hela deras livscykel.
  • Styrbar: Avdelningen kommer att designa och konstruera AI-kapacitet för att uppfylla sina avsedda funktioner samtidigt som den har förmågan att upptäcka och undvika oavsiktliga konsekvenser, och förmågan att koppla ur eller inaktivera utplacerade system som visar oavsiktligt beteende.

Jag har också diskuterat olika kollektiva analyser av AI-etiska principer, inklusive att ha täckt en uppsättning utarbetad av forskare som undersökte och kondenserade essensen av många nationella och internationella AI-etiska principer i en artikel med titeln "The Global Landscape Of AI Ethics Guidelines" (publicerad i Natur), och som min bevakning utforskar kl länken här, vilket ledde till denna keystone-lista:

  • Öppenhet
  • Rättvisa & Rättvisa
  • Icke-ondska
  • Ansvar
  • Integritetspolicy
  • Välgörenhet
  • Frihet & autonomi
  • Litar
  • Hållbarhet
  • Värdighet
  • Solidaritet

Som du direkt kan gissa kan det vara extremt svårt att försöka fastställa detaljerna bakom dessa principer. Ännu mer så är ansträngningen att förvandla dessa breda principer till något helt påtagligt och tillräckligt detaljerat för att användas när man skapar AI-system också en svår nöt att knäcka. Det är lätt att överlag göra lite handviftande om vad AI-etiska föreskrifter är och hur de generellt bör följas, medan det är en mycket mer komplicerad situation i AI-kodningen som måste vara det veritabla gummit som möter vägen.

AI-etiska principer ska användas av AI-utvecklare, tillsammans med de som hanterar AI-utvecklingsinsatser, och även de som i slutändan arbetar med och utför underhåll av AI-system. Alla intressenter under hela AI-livscykeln för utveckling och användning anses vara inom ramen för att följa de etablerade normerna för etisk AI. Detta är en viktig höjdpunkt eftersom det vanliga antagandet är att "endast kodare" eller de som programmerar AI:n är föremål för att följa AI-etikbegreppet. Som tidigare nämnts krävs det en by för att utforma och sätta in AI, och för vilken hela byn måste vara bevandrad i och följa AI-etiska föreskrifter.

Låt oss också se till att vi är på samma sida om arten av dagens AI.

Det finns ingen AI idag som är kännande. Vi har inte det här. Vi vet inte om sentient AI kommer att vara möjligt. Ingen kan lämpligen förutsäga om vi kommer att uppnå sentient AI, och inte heller om sentient AI på något sätt mirakulöst spontant kommer att uppstå i en form av beräkningskognitiv supernova (vanligtvis kallad singulariteten, se min bevakning på länken här).

Den typ av AI som jag fokuserar på består av den icke-kännande AI som vi har idag. Om vi ​​ville spekulera vilt om kännande AI, den här diskussionen kan gå i en radikalt annan riktning. En kännande AI skulle förmodligen vara av mänsklig kvalitet. Du skulle behöva tänka på att den kännande AI är den kognitiva motsvarigheten till en människa. Mer så, eftersom vissa spekulerar att vi kan ha superintelligent AI, är det tänkbart att sådan AI kan bli smartare än människor (för min utforskning av superintelligent AI som en möjlighet, se täckningen här).

Låt oss hålla saker mer jordnära och överväga dagens beräkningslösa AI.

Inse att dagens AI inte kan "tänka" på något sätt i nivå med mänskligt tänkande. När du interagerar med Alexa eller Siri kan samtalskapaciteten tyckas likna mänsklig kapacitet, men verkligheten är att den är beräkningsmässig och saknar mänsklig kognition. Den senaste eran av AI har i stor utsträckning använt maskininlärning (ML) och djupinlärning (DL), som utnyttjar matchning av beräkningsmönster. Detta har lett till AI-system som ser ut som mänskliga benägenheter. Samtidigt finns det inte någon AI idag som har ett sken av sunt förnuft och inte heller något av det kognitiva förundran med robust mänskligt tänkande.

ML/DL är en form av beräkningsmönstermatchning. Det vanliga tillvägagångssättet är att man samlar ihop data om en beslutsuppgift. Du matar in data i ML/DL-datormodellerna. Dessa modeller försöker hitta matematiska mönster. Efter att ha hittat sådana mönster, om så hittas, kommer AI-systemet att använda dessa mönster när det möter ny data. Vid presentationen av nya data tillämpas mönstren baserade på "gamla" eller historiska data för att göra ett aktuellt beslut.

Jag tror att ni kan gissa vart detta är på väg. Om människor som har fattat mönstrade beslut har införlivat ogynnsamma fördomar, är oddsen att data speglar detta på subtila men betydelsefulla sätt. Machine Learning eller Deep Learning beräkningsmönstermatchning kommer helt enkelt att försöka matematiskt efterlikna data i enlighet därmed. Det finns inget sken av sunt förnuft eller andra kännande aspekter av AI-tillverkad modellering i sig.

Dessutom kanske AI-utvecklarna inte inser vad som händer heller. Den mystiska matematiken i ML/DL kan göra det svårt att ta bort de nu dolda fördomarna. Du skulle med rätta hoppas och förvänta dig att AI-utvecklarna skulle testa för de potentiellt begravda fördomarna, även om detta är svårare än det kan verka. Det finns en stor chans att det även med relativt omfattande tester kommer att finnas fördomar inbäddade i mönstermatchningsmodellerna för ML/DL.

Du skulle kunna använda det berömda eller ökända ordspråket om skräp-in skräp-ut. Saken är den att detta är mer besläktat med fördomar-in som smygande blir infunderade när fördomar nedsänkt i AI. Algoritmen för beslutsfattande (ADM) för AI blir axiomatiskt laddat med orättvisor.

Inte bra.

Låt oss knyta detta till frågan om pålitlig AI

Vi verkar verkligen inte vara villiga att lita på AI som visar upp negativa fördomar och diskriminerande handlingar. Vår övertygelse i så fall skulle vara att sådan AI definitivt inte är pålitlig, så vi skulle luta oss mot att aktivt misstro AI. Utan att gå överbord med en antropomorf jämförelse (jag ska säga mer om AI-antropomorfisering om ett ögonblick), skulle en människa som uppvisade ogynnsamma fördomar också bli föremål för klassificering som inte särskilt pålitlig.

Gräver i tillit och trovärdighet

Vi kanske borde ta en titt på vad vi menar när vi påstår att vi gör eller inte litar på någon eller något. Tänk först på flera vardagliga ordboksdefinitioner av tillit.

Exempel på vad förtroende definitionsmässigt betyder är:

  • Säkert beroende av karaktären, förmågan, styrkan eller sanningen hos någon eller något (Merriam-Webster onlineordbok).
  • Förlita sig på en persons eller saks integritet, styrka, förmåga, säkerhet etc (Dictionary.com)
  • Fast tro på tillförlitligheten, sanningen, förmågan eller styrkan hos någon eller något (Oxford Languages ​​online ordbok).

Jag skulle vilja påpeka att alla dessa definitioner hänvisar till "någon" och på samma sätt hänvisar till "något" som potentiellt pålitligt. Detta är anmärkningsvärt eftersom vissa kanske insisterar på att vi bara litar på människor och att handlingen att lita är reserverad uteslutande för mänskligheten som vårt mål för trovärdighet. Inte så. Du kan lita på din brödrost. Om den verkar göra din toast på ett tillförlitligt sätt och arbetar rutinmässigt för att göra det, kan du säkert ha ett sken av förtroende för om brödrosten faktiskt är pålitlig.

I samma tankesätt kan AI också vara föremål för vår tillitssynpunkt. Oddsen är att förtroende i samband med AI kommer att bli mycket mer komplicerat än att säga en vardaglig brödrost. En brödrost kan vanligtvis bara göra en handfull åtgärder. Ett AI-system är sannolikt mycket mer komplext och verkar fungera mindre transparent. Vår förmåga att bedöma och fastställa tillförlitligheten hos AI kommer definitivt att vara mycket svårare och erbjuda distinkta utmaningar.

Förutom att bara vara mer komplex, sägs ett typiskt AI-system vara icke-deterministiskt och potentiellt självreglerande eller självjusterande. Vi kan kort utforska den föreställningen.

En deterministisk maskin tenderar att göra samma saker om och om igen, förutsägbart och med ett gångbart urskiljbart mönster av hur den fungerar. Man kan säga att en vanlig brödrost rostar ungefär på samma sätt och har rostningskontroller som modererar rostningen, som alla i allmänhet är förutsägbara av personen som använder brödrosten. Däremot är komplexa AI-system ofta utformade för att vara icke-deterministiska, vilket innebär att de kan göra helt olika saker utöver vad du annars skulle ha förväntat dig. Detta skulle delvis också kunna förstärkas ytterligare om AI:n skrivs för att självjustera sig själv, en aspekt som med fördel kan tillåta AI:n att förbättras i fallet med ML/DL, men kan också störande få AI:n att vackla eller komma in i leden av AI-dålighet. Du kanske inte vet vad som drabbade dig, på ett sätt att säga, eftersom du blev helt överraskad av AI:s handlingar.

Vad kan vi göra för att försöka föra AI närmare tillförlitlighet?

Ett tillvägagångssätt består i att försöka se till att de som bygger och använder AI följer en uppsättning AI-etiska föreskrifter. Som nämnts av dessa AI-forskare: "Förtroende är en attityd att en agent kommer att bete sig som förväntat och man kan lita på för att nå sitt mål. Förtroende bryts ner efter ett misstag eller missförstånd mellan agenten och den förtroendefulla individen. Det psykologiska tillståndet av förtroende för AI är en framväxande egenskap hos ett komplext system, som vanligtvis involverar många cykler av design, utbildning, implementering, mätning av prestanda, reglering, omdesign och omskolning” (anges i Kommunikation av ACM, "Trust, Regulation, and Human-in-the-Loop AI Within the European Region" av Stuart Middleton, Emmanuel Letouze, Ali Hossaini och Adriane Chapman, april 2022).

Kontentan är att om vi kan få AI-utvecklare att följa etisk AI, kommer de förhoppningsvis att producera pålitlig AI. Det här är väl och bra, men det verkar lite opraktiskt i verkligheten, även om det absolut är en väg värd att följa.

Här är vad jag menar.

Anta att en flitig ansträngning görs av AI-utvecklare som skapar ett AI-system för något syfte som vi i allmänhet kallar X. De ser noga till att AI:n följer AI-etikens transparensföreskrifter. De ser till att sekretess är inbyggt på lämpligt sätt i AI. För nästan alla vanliga AI-etiska principer säkerställer AI-byggarna uttömmande att AI:n uppfyller de givna föreskrifterna.

Ska du lita på den AI nu?

Tillåt mig att hjälpa till att genomsyra dina tankar om den öppna frågan.

Det visar sig att cyberskurkar lyckades infiltrera AI:n och smygande få AI:n att utföra X och ändå mata cyberhackerna med all data som AI:n samlar in. Genom att göra det undergräver dessa illgärare på lömskt sätt integritetsregeln. Du är lyckligt omedveten om att detta händer under AI-huven.

Med den extra informationen kommer jag att ställa samma fråga till dig igen.

Litar du på den AI?

Jag vågar påstå att de flesta med en gång skulle förklara att de säkert gör det inte lita på just denna AI. De kan ha litat på det tidigare. De väljer nu att inte längre betrakta AI:n som pålitlig.

Några viktiga insikter baserade på detta enkla exempel är värda att tänka på:

  • Dynamics of Trust. Även de bästa avsikterna att täcka alla grunder för att säkerställa att AI-etik är inbyggd i ett AI-system är ingen garanti för vad AI kan visa sig vara eller bli. När AI:n väl har tagits i bruk kan utomstående potentiellt undergräva de etiska AI-tillgångarna.
  • Underskrider förtroende inifrån. Handlingen att underskrida tillförlitligheten behöver inte nödvändigtvis vara utomstående. En insider som gör regelbundet underhåll av AI-systemet kan göra fel och försvaga AI:n mot att bli mindre pålitlig. Den här AI-utvecklaren kanske har ingen aning om vad de har åstadkommit.
  • Oavsiktliga kompromisser av tillit. En självjusterande eller självreglerande AI kan någon gång justera sig själv och svänga in i det opålitliga territoriet. Kanske försöker AI att stärka transparensen hos AI och ändå samtidigt och olämpligt äventyra integritetsaspekterna.
  • Spridning av tillit. Att försöka uppnå alla AI-etikens grundsatser till samma yttersta grad av pålitlighet är vanligtvis inte lätt genomförbart eftersom de ofta är tvärsäker eller har andra inneboende potentiella konflikter. Det är ett ganska idealiserat perspektiv att tro att alla de etiska AI-föreskrifterna är drömskt anpassade och alla kan uppnås i någon lika maximerbar grad.
  • Förtroende kan vara dyrt att uppnå. Kostnaden för att försöka uppnå en förstklassig sken av pålitlig AI genom att utföra de olika omfattande och uttömmande stegen och följa litanien av AI-etiska principer kommer att bli relativt hög. Du kan lätt hävda att kostnaden skulle vara oöverkomlig när det gäller att få i bruk vissa AI-system som annars har ett viktigt värde för samhället, även om AI:n var ska vi säga mindre än idealisk utifrån en önskan om pålitlighet.
  • Och så vidare.

Misstolka inte de föregående kommentarerna för att antyda att vi på något sätt bör avvärja ansträngningen att grundligt bygga och skapa pålitlig AI. Du skulle så att säga summariskt slänga ut barnet med badvattnet. Den korrekta tolkningen är att vi behöver göra de förtroendefulla aktiviteterna för att få AI till en trovärdig övervägande, och ändå är det ensamt inte ett botemedel eller en silverkula.

Flerspåriga vägar till pålitlig AI

Det finns viktiga ytterligare mångsidiga sätt att sträva mot pålitlig AI.

Till exempel, som jag tidigare har behandlat i mina kolumner, syftar en myriad av nya lagar och förordningar angående AI till att driva AI-tillverkare mot att ta fram pålitlig AI, se länken här och länken här.

Dessa lagliga skyddsräcken är avgörande som ett övergripande sätt att se till att de som utformar AI hålls fullt ansvariga för sin AI. Utan sådana potentiella rättsmedel och lagliga påföljder kommer de som pell-mell rusar AI in på marknaden sannolikt att fortsätta göra det med liten om någon allvarlig hänsyn till att uppnå pålitlig AI. Jag kan särskilt tillägga att om dessa lagar och förordningar är dåligt utarbetade eller otillräckligt implementerade, kan de tyvärr underskrida jakten på pålitlig AI, kanske ironiskt nog och konstigt att främja opålitlig AI framför pålitlig AI (se mina kolumndiskussioner för ytterligare förklaring).

Jag har också varit en hängiven förespråkare för vad jag ivrigt har refererat till som AI skyddsängel bots (se min bevakning på länken här). Det här är en kommande metod eller tillvägagångssätt för att försöka bekämpa eld med eld, nämligen att använda AI för att hjälpa oss att hantera annan AI som kanske eller kanske inte är pålitlig.

För det första kommer lite bakgrundskontext att vara användbart.

Anta att du väljer att lita på ett AI-system som du är osäker på om dess tillförlitlighet. En viktig fråga kan vara att du är ensam i dina försök att ta reda på om AI är att lita på eller inte. AI:n är potentiellt beräkningsmässigt snabbare än du och kan dra fördel av dig. Du behöver någon eller något på din sida för att hjälpa till.

Ett perspektiv är att det alltid ska finnas en människa-i-loopen som kommer att hjälpa dig när du använder ett AI-system. Detta är dock en problematisk lösning. Om AI:n fungerar i realtid, vilket vi kommer att diskutera ett ögonblick när det kommer till tillkomsten av AI-baserade självkörande bilar, kanske det inte räcker med att ha en människa-i-loopen. AI:n kan agera i realtid och när en utsedd människa-i-slingan kommer in i bilden för att ta reda på om AI:n fungerar korrekt, kan ett katastrofalt resultat redan ha inträffat.

För övrigt tar detta upp en annan faktor om förtroende. Vi tilldelar vanligtvis en tillitsnivå baserat på det sammanhang eller den omständighet som vi står inför. Du kanske helt och hållet litar på att din barnson eller dotter ska vara trogen mot dig, men om du är ute och vandrar och bestämmer dig för att lita på att barnet berättar för dig om det är säkert att kliva på kanten av en klippa, tror jag att du skulle vara klok att överväga om barnet kan ge den sortens råd på liv eller död. Barnet kan göra det på allvar och uppriktigt, och ändå inte kunna ge sådana råd på ett adekvat sätt.

Samma föreställning är förknippad med tillit när det kommer till AI. Ett AI-system som du använder för att spela dam eller schack är förmodligen inte inblandat i några överväganden på liv eller död. Du kan känna dig mer bekväm med ditt förtroendeuppdrag. En AI-baserad självkörande bil som kör nerför en motorväg i höga hastigheter kräver ett mycket mer ansträngande förtroende. Den minsta smällen från AI-körsystemet kan leda direkt till din död och andras död.

I en publicerad intervju med Beena Ammanath, verkställande direktör för Global Deloitte AI Institute och författare till boken Pålitlig AI, en liknande betoning på att överväga de kontextuella aspekterna av var AI-pålitlighet kommer att spela: "Om du bygger en AI-lösning som gör patientdiagnostik är rättvisa och partiskhet superviktigt. Men om du bygger en algoritm som förutsäger jetmotorfel, är rättvisa och partiskhet inte lika viktigt. Trovärdig AI är verkligen en struktur för att få dig att börja tänka på dimensionerna av förtroende inom din organisation” (VentureBeat22 mars 2022).

När du diskuterar pålitlig AI kan du tolka detta ämne på en mängd olika sätt.

Till exempel, pålitlig AI är något som vi alla ser som ett önskvärt och eftersträvansvärt mål, nämligen att vi ska vara angelägna om att utveckla och sprida pålitlig AI. Det finns en annan användning av slagordet. En något alternativ användning är det pålitlig AI är ett tillstånd av tillstånd eller mätning, så att någon kan hävda att de har skapat ett AI-system som är en instans av pålitlig AI. Du kan också använda frasen pålitlig AI att föreslå en metod eller ett tillvägagångssätt som kan användas för att uppnå AI-pålitlighet. Etc.

På en relaterad anmärkning, jag litar på att du inser att inte all AI är densamma och att vi måste vara uppmärksamma på att inte göra allmänna uttalanden om all AI. Ett visst AI-system kommer sannolikt att skilja sig betydligt från ett annat AI-system. Ett av dessa AI-system kan vara mycket pålitligt, medan det andra kan vara marginellt pålitligt. Var försiktig med att på något sätt anta att AI är en monolit som antingen är helt pålitlig eller helt otillförlitlig.

Så är helt enkelt inte fallet.

Jag vill härnäst kort täcka några av min pågående forskning om tillförlitlig AI som du kan hitta av intresse, och som täcker den uppkomna rollen av AI skyddsängel bots.

Så här går det.

Du skulle vara beväpnad med ett AI-system (en AI-skyddsängelbot) som är utformad för att mäta tillförlitligheten hos något annat AI-system. AI-skyddsängelboten har som ett yttersta fokus på din säkerhet. Tänk på detta som om du har möjlighet att övervaka den AI du litar på genom att ha ett annat AI-system i din veritabla ficka, kanske körs på din smartphone eller andra sådana enheter. Din ökända AI-väktare kan beräkna på en bas som den AI du förlitar dig på också gör, arbeta i snabba hastigheter och beräkna den aktuella situationen i realtid, mycket snabbare än en människa-i-slingan skulle kunna göra det.

Du kanske vid en första anblick tror att den AI du redan litar på borde ha en del inre AI skyddsräcken som gör samma sak som denna separat beräknande AI skyddsängel bot. Ja, det vore absolut önskvärt. Ett problem är att AI-skyddsräckena som är inbyggda i ett AI-system kan vara integrerat och skadligt anpassade till AI:n i sig, så det förmodade AI-räcket kan inte längre på sätt och vis självständigt verifiera eller validera AI:n.

Den kontrasterande idén är att din AI-skyddsängelbot är en oberoende eller tredjeparts AI-mekanism som skiljer sig från den AI som du litar på. Den sitter utanför den andra AI:n och förblir hängiven till dig och inte ägnad åt AI:n som övervakas eller bedöms.

Ett enkelt sätt att tänka på detta kan uttryckas genom följande förenklade ekvationsliknande uttalanden. Vi kan säga att "P" potentiellt vill lita på "R" för att utföra en viss uppgift "X":

Detta skulle vara följande när endast personer är inblandade:

  • Person P litar på att person R utför uppgift X.

När vi väljer att förlita oss på AI, omformas uttalandet till detta:

  • Person P litar på AI-instans-R för att utföra uppgift X.

Vi kan lägga till AI-skyddsängelboten genom att säga detta:

  • Person P litar på att AI-instans-R utför uppgift X som övervakas av AI-skyddsängel bot instans-Z

AI-skyddsängelboten utvärderar outtröttligt och obevekligt den AI som du litar på. Som sådan kan din händige AI-väktare varna dig om att förtroendet för denna andra AI är obefogat. Eller så kan AI-väktaren interagera elektroniskt med den andra AI:n för att försöka säkerställa att alla avvikelser från att vara pålitliga snabbt korrigeras, och så vidare (se min bevakning om sådana detaljer på länken här).

The Trusty Trust Reservoir Metafor

Eftersom vi diskuterar olika nivåer av förtroende, kan du ha en praktisk metafor om trovärdighet genom att uppfatta tillit som en typ av reservoar.

Du har ett visst mått av förtroende för en viss person eller sak under en viss omständighet vid en viss tidpunkt. Nivån på förtroendet kommer att stiga eller sjunka, beroende på vad mer som händer relaterat till just den personen eller saken. Förtroendet kan vara på en nollnivå när du inte har något som helst förtroende för personen eller saken. Förtroendet kan vara negativt när du vågar dig på att ha misstro mot den personen eller saken.

När det gäller AI-system kommer din förtroendereservoar för den speciella AI som du förlitar dig på under en viss omständighet att stiga eller falla beroende på att du mäter AI:ns tillförlitlighet. Ibland kan du vara väl medveten om denna varierande nivå av förtroende för AI, medan du i andra fall kanske är mindre medveten och mer så genom att ana att du gör bedömningar om tillförlitligheten.

Sätt som vi har diskuterat här sätten att öka förtroendenivåerna för AI inkluderar:

  • Anslutning till AI-etik. Om den AI som du litar på skapades genom att försöka följa de korrekta AI-etiska föreskrifterna, skulle du förmodligen använda denna förståelse för att öka nivån på din förtroendereservoar för just det AI-systemet. Som en sidoanteckning är det också möjligt att du generaliserar till andra AI-system vad gäller deras tillförlitlighet, även om detta ibland kan vara en missvisande form av vad jag kallar AI litar på spridning av aura (var försiktig med att göra detta!).
  • Använd en Human-In-The-Loop. Om AI:n har en människa-i-loopen kan du på ett positivt sätt öka ditt upplevda förtroende för AI:n.
  • Upprätta lagar och förordningar. Om det finns lagar och förordningar förknippade med denna speciella typ av AI, kan du också öka din tillitsnivå.
  • Använd en AI Guardian Angel Bot. Om du har en AI-skyddsängel-bot redo, kommer även detta att höja din förtroendenivå ytterligare.

Som nämnts tidigare kan förtroende vara ganska skört och falla sönder på ett ögonblick (dvs. förtroendereservoaren dumpar snabbt och plötsligt allt uppbyggt förtroende).

Föreställ dig att du är inne i en AI-baserad självkörande bil och AI-körningen gör plötsligt en radikal högersväng, vilket får hjulen att gnisa och nästan tvingar det självkörande fordonet till en hotande vältning. Vad skulle hända med din nivå av förtroende? Det verkar som att även om du tidigare höll AI på en ökad nivå av förtroende, skulle du dramatiskt och abrupt sänka din tillitsnivå, förnuftigt så.

Vid denna tidpunkt av denna tunga diskussion, skulle jag slå vad om att du är sugen på ytterligare illustrativa exempel som kan visa upp karaktären och omfattningen av pålitlig AI. Det finns en speciell och säkerligen populär uppsättning exempel som ligger mig varmt om hjärtat. Du förstår, i min egenskap av expert på AI inklusive de etiska och juridiska konsekvenserna, blir jag ofta ombedd att identifiera realistiska exempel som visar upp AI-etiska dilemman så att ämnets något teoretiska natur kan lättare förstås. Ett av de mest suggestiva områdena som på ett levande sätt presenterar detta etiska AI-problem är tillkomsten av AI-baserade äkta självkörande bilar. Detta kommer att fungera som ett praktiskt användningsfall eller exempel för omfattande diskussioner om ämnet.

Här är en anmärkningsvärd fråga som är värd att överväga: Belyser tillkomsten av AI-baserade äkta självkörande bilar något om jakten på pålitlig AI, och i så fall, vad visar detta upp?

Tillåt mig en stund att packa upp frågan.

Observera först att det inte finns en mänsklig förare inblandad i en äkta självkörande bil. Tänk på att äkta självkörande bilar körs via ett AI-körsystem. Det finns inte ett behov av en mänsklig förare vid ratten, och det finns inte heller en bestämmelse för en människa att köra fordonet. För min omfattande och pågående bevakning av Autonomous Vehicles (AV) och speciellt självkörande bilar, se länken här.

Jag vill ytterligare klargöra vad som menas när jag hänvisar till riktiga självkörande bilar.

Förstå nivåerna av självkörande bilar

Som ett förtydligande är sanna självkörande bilar sådana där AI kör bilen helt på egen hand och det inte finns någon mänsklig hjälp under köruppgiften.

Dessa förarlösa fordon betraktas som nivå 4 och nivå 5 (se min förklaring på denna länk här), medan en bil som kräver en mänsklig förare för att dela köransträngningen vanligtvis anses vara på nivå 2 eller nivå 3. De bilar som delar på köruppgiften beskrivs som halvautonoma och innehåller vanligtvis en mängd olika automatiserade tillägg som kallas ADAS (Advanced Driver-Assistance Systems).

Det finns ännu inte en riktig självkörande bil på nivå 5, och vi vet ännu inte ens om detta kommer att vara möjligt att uppnå, inte heller hur lång tid det kommer att ta att komma dit.

Under tiden försöker nivå 4-ansträngningarna gradvis få lite dragkraft genom att genomgå mycket smala och selektiva offentliga vägförsök, även om det finns kontroverser om huruvida denna testning ska vara tillåten i sig (vi är alla liv-eller-död-marsvin i ett experiment. som äger rum på våra motorvägar och motorvägar, menar vissa, se min täckning på denna länk här).

Eftersom semi-autonoma bilar kräver en mänsklig förare, kommer antagandet av dessa typer av bilar inte att vara märkbart annorlunda än att köra konventionella fordon, så det finns inte mycket nytt i sig att täcka om dem om detta ämne (men som du kommer att se på ett ögonblick är de punkter som nästa görs generellt tillämpliga)

För semi-autonoma bilar är det viktigt att allmänheten måste varnas om en oroande aspekt som har uppstått på sistone, nämligen att trots de mänskliga förarna som fortsätter att lägga upp videor om sig själva somna vid ratten i en nivå 2 eller nivå 3 bil , vi måste alla undvika att bli vilseledda till att tro att föraren kan ta bort sin uppmärksamhet från köruppgiften medan han kör en semi-autonom bil.

Du är den ansvariga parten för fordonets körning, oavsett hur mycket automatisering som kan kastas till nivå 2 eller nivå 3.

Självkörande bilar och pålitlig AI

För nivå 4 och 5 verkliga självkörande fordon finns det ingen mänsklig förare som är involverad i köruppgiften.

Alla passagerare kommer att vara passagerare.

AI kör körningen.

En aspekt att omedelbart diskutera innebär det faktum att AI involverad i dagens AI-körsystem inte är känslig. Med andra ord är AI helt och hållet en kollektiv datorbaserad programmering och algoritmer, och kan med säkerhet inte resonera på samma sätt som människor kan.

Varför är denna extra tonvikt om att AI inte är känslig?

Eftersom jag vill understryka att när jag diskuterar AI-drivsystemets roll tillskriver jag inte mänskliga egenskaper till AI. Tänk på att det idag finns en pågående och farlig tendens att antropomorfisera AI. I grund och botten tilldelar människor mänsklig känsla till dagens AI, trots det obestridliga och obestridliga faktum att ingen sådan AI finns än.

Med det förtydligandet kan du föreställa dig att AI-körsystemet inte på något sätt "vet" om körningens aspekter. Körning och allt det innebär kommer att behöva programmeras som en del av hårdvaran och mjukvaran i den självkörande bilen.

Låt oss dyka in i den myriad av aspekter som kommer att spela om detta ämne.

För det första är det viktigt att inse att inte alla AI självkörande bilar är likadana. Varje biltillverkare och självkörande teknikföretag tar sitt tillvägagångssätt för att utforma självkörande bilar. Som sådan är det svårt att göra svepande uttalanden om vad AI-körsystem kommer att göra eller inte.

Dessutom, närhelst man säger att ett AI-körsystem inte gör någon speciell sak, kan detta senare övertas av utvecklare som faktiskt programmerar datorn att göra just det. Steg för steg förbättras och utökas AI-körsystemen gradvis. En befintlig begränsning idag kanske inte längre existerar i en framtida iteration eller version av systemet.

Jag litar på att det ger en tillräcklig litania av varningar för att ligga till grund för det jag ska berätta.

Vi är redo att göra en djupdykning i självkörande bilar och pålitlig AI.

Förtroende är allt, särskilt när det gäller AI-baserade självkörande bilar.

Samhället verkar försiktigt titta på framväxten av självkörande bilar. Å ena sidan finns det en stor förhoppning om att tillkomsten av äkta självkörande bilar bevisligen kommer att minska antalet årliga bilrelaterade dödsfall. Bara i USA finns det cirka 40,000 2.5 årliga dödsfall och cirka XNUMX miljoner skador på grund av bilolyckor, se min statistiksamling på länken här. Människor dricker och kör. Människor kör när de är distraherade. Uppgiften att köra bil verkar bestå i att repetitivt och ofelbart kunna fokusera på körningen och undvika att hamna i bilolyckor. Som sådan kan vi drömmande hoppas att AI-körsystem kommer att vägleda självkörande bilar repetitivt och felfritt. Du kan tolka självkörande bilar som en tvåfamilj, som består av att minska antalet dödsfall och skador i bilolyckor, tillsammans med att potentiellt göra rörlighet tillgänglig på en mycket bredare och tillgänglig basis.

Men oron häger under tiden över samhällets uppfattningar om huruvida självkörande bilar kommer att vara säkra nog att vara på våra allmänna vägar i stort.

Om ens en självkörande bil hamnar i en krasch eller kollision som leder till en enda död eller svår skada, kan du antagligen förutse att dagens något uppbyggda förtroende för dessa AI-baserade förarlösa bilar kommer att sjunka hastigt. Vi såg detta hända när den nu ökända incidenten inträffade i Arizona som involverade en något (inte riktigt) självkörande bil som körde in i och dödade en fotgängare (se min bevakning på denna länk här).

Vissa förståsigpåare påpekar att det är orättvist och olämpligt att basera förtroendet för AI självkörande bilar på aspekten att endast en sådan nästa dödsolycka eller kollision kan undergräva de redan relativt krockfria försöken på allmänna vägar. Dessutom, på en ytterligare orättvis grund, är oddsen att oavsett vilket särskilt AI självkörande bilmärke eller modell som kanske blir indragen i en sorglig incident, skulle samhället otvivelaktigt skylla på alla självkörande bilmärken.

Hela självkörande bilar skulle kunna smutsas ned och branschen som helhet kan drabbas av en enorm motreaktion som kan leda till en eventuell avstängning av alla försök på allmän väg.

En bidragande orsak till ett sådant slag återfinns i de meningslösa tillkännagivandena från uttalade självkörande bilförespråkare om att alla förarlösa bilar kommer att vara okrossbara. Den här idén om att vara orubblig är inte bara direkt felaktig (se länken här), är det lömskt att skapa den självkörande bilindustrin för en helt out-of-whack uppsättning förväntningar. Dessa besynnerliga och ouppnåeliga uttalanden att det kommer att finnas noll dödsfall på grund av självkörande bilar underblåser missuppfattningen att alla förarlösa bilolyckor är ett säkert tecken på att hela kitet och kaboodlen är för intet.

Det finns en utpräglad sorg att inse att framstegen mot självkörande bilar och den tum i taget ackumulering av samhälleligt förtroende kunde försvinna på ett ögonblick. Det kommer att bli en jäkla showcase om förtroendets sprödhet.

Slutsats

Många biltillverkare och självkörande teknikföretag följer i allmänhet AI-etiska principer, och gör det för att försöka bygga och utveckla pålitlig AI när det gäller säkra och pålitliga AI-baserade självkörande bilar. Vänligen inse att vissa av dessa företag är starkare och mer hängivna de etiska AI-föreskrifterna än andra. Det finns också enstaka främmande eller nybörjare självkörande bilrelaterade startups som verkar förkasta mycket av AI Ethics hörnstenar (se min recension på länken här).

På andra fronter har nya lagar och förordningar som täcker självkörande bilar successivt tagits upp i de juridiska böckerna. Huruvida de har de nödvändiga tänderna för att backa upp dem är en annan sak, liksom om tillämpningen av dessa lagar tas på allvar eller förbises (se mina kolumner för analyser om detta).

Det finns också den högteknologiska vinkeln på detta. Jag har förutspått att vi gradvis kommer att se varianter av AI-skyddsängelbots som kommer att träda i förgrunden på arenan för autonoma fordon och självkörande bilar. Vi är inte där än. Detta kommer att bli mer utbrett när populariteten för självkörande bilar blir mer utbredd.

Denna sista punkt tar upp en berömd rad om förtroende som du utan tvekan redan kan utantill.

Lita på men verifiera.

Vi kan tillåta oss själva att förlänga vårt förtroende, kanske generöst. Samtidigt bör vi också titta på som en hök för att se till att det förtroende vi skapar verifieras av både ord och handling. Låt oss lita lite på AI, men verifiera oändligt att vi sätter vårt förtroende på rätt sätt och med vidöppna ögon.

Du kan lita på mig på det.

Källa: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/