AI-etik försiktig med att förvärra AI-asymmetri bland människor som får den korta änden av pinnen

Ibland är man på fel sida.

Denna vardag kan appliceras på begreppet asymmetri.

Ja, jag kommer att prata om asymmetri. Som du antagligen har stött på i den här omvälvande världen som vi lever i, finns det tillfällen då du kanske har mindre kunskap om en fråga som är relativt viktig för dig. Detta kallas formellt Informationsasymmetri.

Nyckeln är att du har mindre kunskap eller information än du kanske önskar att du hade, plus att du definitivt har mindre än den andra parten som är inblandad i frågan. Du har ett klart underläge i jämförelse med den andra parten. De vet något du inte vet. De kan utnyttja det de vet, särskilt när det gäller det du inte vet, och få ett övertag i alla grova överläggningar eller förhandlingar med dig.

Tja, det finns ett nytt barn i stan, känd som AI-asymmetri.

Denna senaste slagord hänvisar till möjligheten att du går emot någon som är beväpnad med AI, medan du inte är så beväpnad.

De har AI på sin sida, medan du har, ja, bara dig. Saker och ting är skeva. Du är förmodad underläge. Den andra sidan kommer att kunna köra cirklar runt dig på grund av att den är förstärkt av AI. Det kan vara inom det berömda talesättet att allt är rättvist i kärlek och krig (ett långvarigt ordspråk som myntats in Euphues av John Lyly, 1578), även om dynamiken och farorna med AI-asymmetri väcker utmanande etiska AI-frågor. För min pågående och omfattande bevakning av AI-etik och etisk AI, se länken här och länken här, bara för att nämna några.

Innan vi hoppar in i AI-sfären och dess rikliga komplexitet angående AI-asymmetri, låt oss först utforska den vanliga vanliga versionen av vanlig informationsasymmetri. Detta kommer att sätta scenen för att komma in i den ökända AI-nya ungen på blocket.

En kort och målmedvetet upplysande berättelse kan väcka din aptit.

Häromdagen hade jag ett punkterat däck på vägen och letade snabbt efter en lämplig ersättare som lätt kunde installeras direkt. Med min smartphone tittade jag online på närliggande däckbutiker för att ta reda på hur långt jag var tvungen att köra på mitt run-flat-däck och om några butiker var öppna. Dessutom gjorde jag en snabb bedömning av deras online kundrecensioner och försökte få fram något användbart om hur länge de hade varit i affärer och andra faktorer som kan visa upp deras värdighet.

När han ringde en av däckaffärerna gav expediten mig en lätt offert för kostnaden för däcket och dess installation. Däcket var inte riktigt vad jag hade tänkt mig, men expediten försäkrade mig att de skulle vara den enda butiken i området som kunde göra jobbet direkt. Enligt expediten skulle någon av de andra närliggande däckbutikerna inte ha några sådana däck i lager och det skulle ta minst en dag för dessa konkurrenter att få tag i ett passande däck från något halvt avlägset lager.

Jag var mitt uppe i en informationsasymmetri.

Expediten påstod sig veta mer om den lokala statusen för däckbutikerna och i synnerhet vilken typ av däck jag behövde. Jag var i ett område som jag bara passerade och hade ingen förstahandskunskap om däckverkstäderna i just det geografiska området. För allt jag visste var expediten perfekt och gav mig den osminkade sanningen.

Men gjorde expediten det?

Kanske, kanske inte.

Det kan vara så att expediten trodde uppriktigt på allt som förmedlades till mig. För expediten var detta sanningen. Eller så kanske expediten sträckte på sanningen något. Det var möjligt att det som sades möjligen kunde vara sant, även om sättet på vilket det avbildades antydde att det var den fullständiga och obestridliga sanningen. Naturligtvis kunde det också ha varit helt galet och expediten var bara shilling för att däckaffären skulle få min verksamhet. Kan en saftig provision ha varit på spel?

Jag vågar påstå att ingen gillar att vara i en sådan underdog-position.

Situationens insatser är en avgörande faktor för hur mycket informationsasymmetri spelar roll. Om den aktuella frågan är en av liv-eller-död karaktär, att vara i hundkojan och vara beroende av den andra parten för vad de vet eller påstår sig veta är en skissartad och högst oönskad hållning att vara i. När insatserna är låga , som att beställa din middag på en restaurang och servern talar om för dig att fiskrätten är himmelsk, men att du aldrig har ätit där förut och är underinformerad, kan du gå med på den här biten av informationsasymmetri utan mycket ångest (jag anta också att du också satsar på att servern inte skulle riskera att ge sura råd och gå miste om att få ett anständigt tips).

För att återgå till historien om slitna däck (en ordlek!), skulle jag inte ha haft något ögonblickligt sätt att ta reda på om expediten gav mig pålitliga och informativa insikter. Du kanske undrar vad som hände. Jag bestämde mig för att ringa flera av de andra närliggande däckaffärerna.

Är du redo för det jag upptäckte?

Alla andra däckaffärer hade mitt önskade däck i lager och tänkte inte försöka övertala mig att ta ett annat däck (som den första expediten försökte göra). De kunde också få arbetet gjort inom samma tidsram som den första däckaffären som jag kanske ringde. Till ungefär samma pris.

En välkommen suck av lättnad inträffade från min sida, det kan jag försäkra er.

Ironiskt nog, i Murphys lag om otur, var den första platsen jag kontaktade den enda som verkade vara ute och äta lunch, så att säga. Jag är glad att jag sökte få mer information. Detta minskade informationsasymmetrigapet. Jag applåderade mig själv för att ha hållit fast vid mina pistoler och inte tagit mig till första platsen jag ringde.

Med det sagt, det var en viss kostnad av slag involverad i att jag skaffade ytterligare information. Jag ringde ungefär fyra samtal som vart och ett tog cirka femton till tjugo minuter att genomföra. I den meningen använde jag ungefär en och en halv timme när jag bara kom på var jag skulle ta min bil. Om jag omedelbart hade tagit min bil till den första platsen, skulle det nya däcket nästan ha varit på min bil vid den tiden. Å andra sidan skulle jag med största sannolikhet, senare, ha ångrat det snabba beslutet som jag tog när jag var i en elak informationsasymmetribindning.

Ibland måste man bita ihop tänderna och ta den fruktade informationsasymmetrin som den kommer. Du hoppas bara att vilket beslut du än tar kommer att vara tillräckligt bra. Det kanske inte är ett "perfekt" beslut och du kan senare ångra ditt val. Den andra vinkeln är att du kan försöka stärka din sida av informationsekvationen, även om detta inte nödvändigtvis är kostnadsfritt och kan också tugga i sig dyrbar tid, beroende på om den omhuldade tiden är av väsentlig betydelse.

Nu när du utan tvekan tröstar dig med att veta att min bil går bra med sitt helt nya och korrekta däck, kan jag övergå till framväxten av AI Asymmetry.

Tänk på en AI-berättelse om ve.

Du vill få ett bostadslån. Det finns en analysator för inteckningsförfrågningar online som en viss bank använder. Onlinesystemet använder sig av dagens avancerade AI-funktioner. Du behöver inte prata med en agent som beviljar mänskliga lån. AI:n gör allt.

AI-systemet leder dig genom en rad uppmaningar. Du fyller plikttroget i formulären och svarar på AI-systemet. Denna AI är väldigt pratsam. Medan du tidigare kanske har använt ett konventionellt datorbaserat formulärsystem, är denna AI-variant mer lik interaktion med en mänsklig agent. Inte riktigt, men tillräckligt för att man nästan kunde börja tro att en människa var på andra sidan av denna aktivitet.

Efter att ha gjort ditt bästa för att "diskutera" din begäran med denna AI, informerar den dig i slutändan att lånebegäran tyvärr inte godkänns. Det får typ din get att AI verkar erbjuda en ursäkt, som om AI ville godkänna lånet men de elaka människorna som övervakar banken kommer inte att låta AI göra det. För min täckning av hur vilseledande dessa typer av påstådda AI-ursäkter är, se länken här.

Du har ingen aning om varför du fick nej. AI ger ingen förklaring. Kanske har AI:n gjort ett misstag eller trasslat till i sina beräkningar. Ännu värre, anta att AI använde några mycket tvivelaktiga överväganden som din ras eller kön när de beslutade om lånet. Allt du vet är att du verkade ha slösat bort din tid och även under tiden lämnat över massor av privata data till AI och banken. Deras AI har överträffat dig.

Detta skulle betecknas som ett exempel på AI-asymmetri.

Det var du mot banken. Banken var beväpnad med AI. Du var inte lika beväpnad. Du hade ditt förstånd och din skola av hårda visdom, men ingen AI fanns i din bakficka. Tänk på en maskin. Tyvärr vann maskinen i det här fallet.

Vad ska du göra?

För det första måste vi på en samhällelig grund inse att denna AI-asymmetri växer och blir nästan allestädes närvarande. Människor möter AI i alla system som vi dagligen interagerar med. Ibland är AI det enda element som vi interagerar med, som i det här exemplet om låneförfrågan. I andra fall kan en människa vara i den loop som förlitar sig på AI för att hjälpa dem att utföra en given tjänst. För lånet kan det vara så att banken vill att du ska prata med en mänsklig agent i stället för att interagera med AI, men för vilken den mänskliga agenten använder ett datorsystem för att komma åt AI som vägleder den mänskliga agenten under lånebegäransprocessen (och du är nästan alltid säker på att den mänskliga agenten agerar som om de är fängslade genom att strikt behöva göra vad AI:n "berättar dem att göra").

Hur som helst är AI fortfarande i mixen.

För det andra måste vi försöka se till att AI-asymmetrin åtminstone görs på en AI-etisk grund.

Tillåt mig att förklara den där till synes märkliga kommentaren. Du förstår, om vi kan vara lite säkra på att AI:n agerar på ett etiskt sunt sätt, kan vi ha lite tröst om den asymmetri som är på gång. På en något analog men också lös grund kan man säga att om min interaktion med den första däckbutiksexpeditören hade några stränga etiska riktlinjer på plats och upprätthållit, kanske jag inte hade fått höra historien som jag fick höra, eller åtminstone jag kanske inte behövde genast söka upptäcka om en stor berättelse gavs till mig.

Jag kommer att förklara mer om AI-etik om ett ögonblick.

För det tredje bör vi söka sätt att minska AI-asymmetri. Om du hade AI som var på din sida och strävade efter att vara din tränare eller beskyddare, kanske du skulle kunna använda den AI för att göra några motslag med den andra AI som du går head-to-head med. Som de säger, ibland är det mycket meningsfullt att bekämpa eld med eld.

Innan vi går in på lite mer kött och potatis om de vilda och ulliga övervägandena som ligger till grund för AI-asymmetri, låt oss fastställa några ytterligare grunder om djupt viktiga ämnen. Vi behöver en kort dykning i AI-etiken och särskilt tillkomsten av Machine Learning (ML) och Deep Learning (DL).

Du kanske är vagt medveten om att en av de mest högljudda rösterna nuförtiden inom AI-området och även utanför AI-området består av att ropa efter en större sken av etisk AI. Låt oss ta en titt på vad det innebär att referera till AI-etik och etisk AI. Utöver det kommer vi att utforska vad jag menar när jag talar om maskininlärning och djupinlärning.

Ett särskilt segment eller del av AI-etiken som har fått mycket uppmärksamhet i media består av AI som uppvisar ogynnsamma fördomar och orättvisor. Du kanske är medveten om att när den senaste eran av AI började var det en enorm explosion av entusiasm för det som vissa nu kallar AI For Good. Tyvärr, i hälarna av den strömmande spänningen, började vi bevittna AI för dåligt. Till exempel har olika AI-baserade ansiktsigenkänningssystem avslöjats innehålla rasfördomar och genusfördomar, vilket jag har diskuterat på länken här.

Ansträngningar att slå tillbaka mot AI för dåligt pågår aktivt. Förutom högljudd laglig i strävan efter att tygla missförhållandena, finns det också en rejäl strävan mot att omfamna AI-etiken för att rätta till AI-elakheten. Tanken är att vi bör anta och godkänna viktiga etiska AI-principer för utveckling och fält av AI för att underskrida AI för dåligt och samtidigt förebåda och främja det föredragna AI For Good.

På ett relaterat begrepp är jag en förespråkare av att försöka använda AI som en del av lösningen på AI-problem, bekämpa eld med eld på det sättet att tänka. Vi kan till exempel bädda in etiska AI-komponenter i ett AI-system som kommer att övervaka hur resten av AI:n gör saker och därmed potentiellt fånga upp i realtid eventuella diskriminerande ansträngningar, se min diskussion på länken här. Vi skulle också kunna ha ett separat AI-system som fungerar som en typ av AI-etikmonitor. AI-systemet fungerar som en övervakare för att spåra och upptäcka när en annan AI går in i den oetiska avgrunden (se min analys av sådana förmågor på länken här).

Om ett ögonblick ska jag dela med dig av några övergripande principer som ligger till grund för AI-etiken. Det finns massor av den här typen av listor som flyter runt här och där. Man kan säga att det ännu inte finns en enda lista över universell överklagande och samstämmighet. Det är de olyckliga nyheterna. Den goda nyheten är att det åtminstone finns lättillgängliga AI-etiklistor och de tenderar att vara ganska lika. Sammantaget tyder detta på att vi genom en form av motiverad konvergens finner vår väg mot en allmän gemensamhet av vad AI-etik består av.

Låt oss först kortfattat täcka några av de övergripande etiska AI-föreskrifterna för att illustrera vad som borde vara ett viktigt övervägande för alla som skapar, använder eller använder AI.

Till exempel, som anges av Vatikanen i Rome Call For AI Ethics och som jag har täckt ingående på länken här, dessa är deras identifierade sex primära AI-etiska principer:

  • Öppenhet: I princip måste AI-system vara förklarliga
  • integration: Alla människors behov måste beaktas så att alla får nytta och alla individer kan erbjudas bästa möjliga förutsättningar att uttrycka sig och utvecklas.
  • Ansvar: De som designar och distribuerar användningen av AI måste fortsätta med ansvar och transparens
  • Opartiskhet: Skapa inte eller agera inte i enlighet med partiskhet, vilket skyddar rättvisa och mänsklig värdighet
  • Pålitlighet: AI-system måste kunna fungera tillförlitligt
  • Säkerhet och integritet: AI-system måste fungera säkert och respektera användarnas integritet.

Som anges av det amerikanska försvarsdepartementet (DoD) i deras Etiska principer för användning av artificiell intelligens och som jag har täckt ingående på länken här, dessa är deras sex primära AI-etiska principer:

  • Ansvarig: DoD-personal kommer att utöva lämpliga nivåer av omdöme och omsorg samtidigt som de förblir ansvarig för utveckling, implementering och användning av AI-kapacitet.
  • Rättvis: Avdelningen kommer att vidta medvetna åtgärder för att minimera oavsiktlig fördom i AI-kapacitet.
  • Spårbar: Avdelningens AI-kapacitet kommer att utvecklas och distribueras så att relevant personal har en lämplig förståelse för tekniken, utvecklingsprocesser och operativa metoder som är tillämpliga på AI-kapacitet, inklusive transparenta och revisionsbara metoder, datakällor och designprocedurer och dokumentation.
  • Pålitlig: Avdelningens AI-förmågor kommer att ha explicita, väldefinierade användningsområden, och säkerheten, säkerheten och effektiviteten för sådana förmågor kommer att bli föremål för testning och försäkran inom de definierade användningarna över hela deras livscykel.
  • Styrbar: Avdelningen kommer att designa och konstruera AI-kapacitet för att uppfylla sina avsedda funktioner samtidigt som den har förmågan att upptäcka och undvika oavsiktliga konsekvenser, och förmågan att koppla ur eller inaktivera utplacerade system som visar oavsiktligt beteende.

Jag har också diskuterat olika kollektiva analyser av AI-etiska principer, inklusive att ha täckt en uppsättning utarbetad av forskare som undersökte och kondenserade essensen av många nationella och internationella AI-etiska principer i en artikel med titeln "The Global Landscape Of AI Ethics Guidelines" (publicerad i Natur), och som min bevakning utforskar kl länken här, vilket ledde till denna keystone-lista:

  • Öppenhet
  • Rättvisa & Rättvisa
  • Icke-ondska
  • Ansvar
  • Integritetspolicy
  • Välgörenhet
  • Frihet & autonomi
  • Litar
  • Hållbarhet
  • Värdighet
  • Solidaritet

Som du direkt kan gissa kan det vara extremt svårt att försöka fastställa detaljerna bakom dessa principer. Ännu mer så är ansträngningen att förvandla dessa breda principer till något helt påtagligt och tillräckligt detaljerat för att användas när man skapar AI-system också en svår nöt att knäcka. Det är lätt att överlag göra lite handviftande om vad AI-etiska föreskrifter är och hur de generellt bör följas, medan det är en mycket mer komplicerad situation i AI-kodningen som måste vara det veritabla gummit som möter vägen.

AI-etiska principer ska användas av AI-utvecklare, tillsammans med de som hanterar AI-utvecklingsinsatser, och även de som i slutändan arbetar med och utför underhåll av AI-system. Alla intressenter under hela AI-livscykeln för utveckling och användning anses vara inom ramen för att följa de etablerade normerna för etisk AI. Detta är en viktig höjdpunkt eftersom det vanliga antagandet är att "endast kodare" eller de som programmerar AI:n är föremål för att följa AI-etikbegreppet. Som tidigare nämnts krävs det en by för att utforma och sätta in AI, och för vilken hela byn måste vara bevandrad i och följa AI-etiska föreskrifter.

Låt oss också se till att vi är på samma sida om arten av dagens AI.

Det finns ingen AI idag som är kännande. Vi har inte det här. Vi vet inte om sentient AI kommer att vara möjligt. Ingen kan lämpligen förutsäga om vi kommer att uppnå sentient AI, och inte heller om sentient AI på något sätt mirakulöst spontant kommer att uppstå i en form av beräkningskognitiv supernova (vanligtvis kallad singulariteten, se min bevakning på länken här).

Den typ av AI som jag fokuserar på består av den icke-kännande AI som vi har idag. Om vi ​​ville spekulera vilt om kännande AI, den här diskussionen kan gå i en radikalt annan riktning. En kännande AI skulle förmodligen vara av mänsklig kvalitet. Du skulle behöva tänka på att den kännande AI är den kognitiva motsvarigheten till en människa. Mer så, eftersom vissa spekulerar att vi kan ha superintelligent AI, är det tänkbart att sådan AI kan bli smartare än människor (för min utforskning av superintelligent AI som en möjlighet, se täckningen här).

Låt oss hålla saker mer jordnära och överväga dagens beräkningslösa AI.

Inse att dagens AI inte kan "tänka" på något sätt i nivå med mänskligt tänkande. När du interagerar med Alexa eller Siri kan samtalskapaciteten tyckas likna mänsklig kapacitet, men verkligheten är att den är beräkningsmässig och saknar mänsklig kognition. Den senaste eran av AI har i stor utsträckning använt maskininlärning (ML) och djupinlärning (DL), som utnyttjar matchning av beräkningsmönster. Detta har lett till AI-system som ser ut som mänskliga benägenheter. Samtidigt finns det inte någon AI idag som har ett sken av sunt förnuft och inte heller något av det kognitiva förundran med robust mänskligt tänkande.

ML/DL är en form av beräkningsmönstermatchning. Det vanliga tillvägagångssättet är att man samlar ihop data om en beslutsuppgift. Du matar in data i ML/DL-datormodellerna. Dessa modeller försöker hitta matematiska mönster. Efter att ha hittat sådana mönster, om så hittas, kommer AI-systemet att använda dessa mönster när det möter ny data. Vid presentationen av nya data tillämpas mönstren baserade på "gamla" eller historiska data för att göra ett aktuellt beslut.

Jag tror att ni kan gissa vart detta är på väg. Om människor som har fattat mönstrade beslut har införlivat ogynnsamma fördomar, är oddsen att data speglar detta på subtila men betydelsefulla sätt. Machine Learning eller Deep Learning beräkningsmönstermatchning kommer helt enkelt att försöka matematiskt efterlikna data i enlighet därmed. Det finns inget sken av sunt förnuft eller andra kännande aspekter av AI-tillverkad modellering i sig.

Dessutom kanske AI-utvecklarna inte inser vad som händer heller. Den mystiska matematiken i ML/DL kan göra det svårt att ta bort de nu dolda fördomarna. Du skulle med rätta hoppas och förvänta dig att AI-utvecklarna skulle testa för de potentiellt begravda fördomarna, även om detta är svårare än det kan verka. Det finns en stor chans att det även med relativt omfattande tester kommer att finnas fördomar inbäddade i mönstermatchningsmodellerna för ML/DL.

Du skulle kunna använda det berömda eller ökända ordspråket om skräp-in skräp-ut. Saken är den att detta är mer besläktat med fördomar-in som smygande blir infunderade när fördomar nedsänkt i AI. Algoritmen för beslutsfattande (ADM) för AI blir axiomatiskt laddat med orättvisor.

Inte bra.

Låt oss återgå till vårt fokus på AI-asymmetri.

En snabb sammanfattning av mina tidigare nämnda tre identifierade rekommendationer är detta:

1) Bli medveten om att AI-asymmetri finns och växer

2) Försök att säkerställa att AI-asymmetrin begränsas av AI-etiken

3) Försök att kämpa med AI-asymmetri genom att bli beväpnad med AI

Vi kommer att titta närmare på den senare punkten att bekämpa eld med eld.

Föreställ dig att när du försökte få ett lån hade du AI som fungerade på din sida av ansträngningen. Det här kan vara en AI-baserad app på din smartphone som utformades för att få lån. Det är inte en app från en av bankerna utan är i stället utformad för att agera på dina vägnar. Jag har beskrivit den här typen av appar i min bok om AI-baserade skyddsängelrobotar, se länken här.

När du ansöker om ett lån kan du hänvisa till den här appen när du leds igenom ansökningsprocessen av den andra AI:n. Dessa två AI-system är distinkta och helt skilda från varandra. AI:n på din smartphone har "tränats" för att känna till alla knep som används av den andra AI:n. Som sådan kommer svaren som du anger i bankens AI att baseras på vad din AI ger dig råd.

En annan variant består av att din AI svarar på frågorna från den andra AI:n. Såvitt den andra AI kan fastställa är det du som skriver in svaren. Du kanske istället bara tittar på när interaktionerna äger rum mellan de två stridande AI-systemen. Detta låter dig se vad din AI erbjuder. Dessutom kan du eventuellt justera din AI beroende på om du är nöjd med vad din AI gör för din räkning.

Jag har förutspått att vi alla gradvis kommer att bli beväpnade med AI som kommer att vara på vår sida i dessa AI-asymmetrisituationer.

Låt oss överväga hur detta kommer att fungera.

Det här är hörnstenens effekter på AI-asymmetritillståndet som jag hade lagt ut:

  • Platta ut AI-asymmetrin till din fördel (tar dig uppåt, i hopp om att nå lika nivåer)
  • Spåra en AI-asymmetri till din fördel (höjer dig till en fördel när redan är lika)
  • Boosta en AI-asymmetri till din extraordinära fördel (får en bredare fördel när du redan har en fördel)
  • Oavsiktlig underskärning av AI-asymmetri till din missnöje (när du hade en redan existerande fördel och AI:n oavsiktligt drog ner dig)

Dags att göra en djupdykning i dessa spännande möjligheter.

Platta ut AI-asymmetrin till din fördel

Att platta till AI-asymmetri är det mest uppenbara och oftast diskuterade övervägandet, nämligen att du skulle beväpna dig med AI för att försöka gå tå till tå med den AI som används av den andra sidan i den aktuella frågan. Inställningen för AI-asymmetri började med dig i ett avgjort underläge. Du hade ingen AI i ditt hörn. Du var i underkanten. Den andra sidan hade AI och de var på den högre marken.

Således beväpnade du dig klokt med AI som skulle syfta till att sätta dig och den andra AI på lika villkor.

En viktig och kanske överraskande nyans att tänka på är att det inte alltid kommer att vara så att de AI-system som används kommer att balansera mot varandra jämnt. Du kanske beväpnar dig med AI, det vill säga mindre potent än den AI som den andra sidan använder. I så fall har du ökat din nedsidaposition, tack och lov, även om du nu inte är helt lika med den andra sidan och dess AI.

Det är därför jag hänvisar till detta som att platta till AI-asymmetri. Du kanske kan minska gapet, men inte helt stänga gapet. Det slutliga målet skulle vara att använda AI på din sida som kommer att föra dig till en helt jämställd hållning. Saken är den att detta kan eller kanske inte är genomförbart. Den andra sidan kan tänkas ha en riktigt dyr AI och du försöker konkurrera med den sparsamma martversionen av AI för mamma och pop.

Inte all AI är densamma.

Att sporra en AI-asymmetri till din fördel

Denna omständighet är inte något som diskuteras mycket idag, delvis för att det är sällsynt just nu. En dag kommer detta att vara vanligt. Tanken är att anta att du är utan AI och ändå är på samma nivå som den sida som har AI.

Bra för dig.

Människor har sina vett om dem.

Men du kanske vill få en fördel gentemot den andra sidan. Att beväpna dig med AI tar dig till högre mark. Du har nu ditt förstånd och din pålitliga AI i handen. Du har fått en fördel som förmodligen kommer att segra över den andra sidans AI.

Öka en AI-asymmetri till din extraordinära fördel

Använd liknande logik som aspekten av att sporra en AI-asymmetri för din räkning, anta att du redan är över kapaciteten hos den andra sidan som använder AI. Du börjar alltså inte i en jämn hållning. Du är lyckligtvis redan på överkanten.

Du kanske ändå vill säkra en ännu större fördel. Därför beväpnar du dig med AI. Detta tar ditt huvud och axlar över den andra sidan.

Oavsiktlig underskridande av AI-asymmetri till din disfavor

Jag tvivlar på att du vill höra om denna möjlighet. Vänligen inse att det inte bara handlar om rosor och glasskakor att hantera AI.

Det kan vara så att när du beväpnar dig med AI så underskrider du dig själv. Om du redan var mindre än AI på andra sidan är du nu nere i ett djupare hål. Om du var på lika villkor är du nu i underläge. Om du var ovanför den andra sidan är du nu lika med eller under den.

Hur kunde det hända?

Du kanske blir chockad när du funderar på att den AI du använder kommer att leda dig vilse. Detta kan lätt inträffa. Bara för att du har AI i ditt hörn betyder det inte att det är användbart. Du kanske använder AI och den ger råd som du inte nödvändigtvis tycker är lämpliga, men du bestämmer dig för att gå med det ändå. Din logik på den tiden var att eftersom du gjorde dig besväret med att skaffa AI, så kunde du lika gärna lita på den.

Den AI du använder kan vara defekt. Eller så kanske det är dåligt utformat. Det finns en mängd anledningar till varför AI kan ge dig skakiga råd. De som blint accepterar vad AI än säger att de ska göra är skyldiga att befinna sig i en värld av sårad. Jag har tagit upp sådana problem i min krönika, som t.ex länken här.

Summan av kardemumman är att det absolut inte finns någon garanti för att bara för att du beväpnar dig med AI så kommer du att vinna i AI Asymmetry-spelet.

Du kan komma på lika villkor. Du kan få en fördel. Och tyvärr måste du vara försiktig eftersom det kan vara så att du sjunker till nedåtgående nivåer när du är beväpnad med AI.

Till viss del är det därför AI-etik och etisk AI är ett så avgörande ämne. AI-etikens föreskrifter får oss att förbli vaksamma. AI-teknologer kan ibland bli upptagna av teknik, särskilt optimering av högteknologi. De överväger inte nödvändigtvis de större samhälleliga konsekvenserna. Att ha ett AI-etiskt tänkesätt och göra det integrerat i AI-utveckling och fältarbete är avgörande för att producera lämplig AI.

Förutom att använda AI-etik, finns det en motsvarande fråga om vi bör ha lagar som styr olika användningar av AI. Nya lagar håller på att samlas runt på federal, statlig och lokal nivå som rör omfattningen och karaktären av hur AI bör utformas. Ansträngningen att utarbeta och anta sådana lagar sker gradvis. AI-etik fungerar åtminstone som ett övervägt stopp, och kommer nästan säkert till viss del att direkt införlivas i dessa nya lagar.

Var medveten om att vissa bestämt hävdar att vi inte behöver nya lagar som täcker AI och att våra befintliga lagar är tillräckliga. Faktum är att de varnar för att om vi stiftar några av dessa AI-lagar, kommer vi att döda guldgåsen genom att slå ner på framsteg inom AI som ger enorma samhällsfördelar. Se till exempel min bevakning på länken här och länken här.

Vid denna tidpunkt av denna tunga diskussion, skulle jag slå vad om att du är sugen på några illustrativa exempel som kan visa upp detta ämne. Det finns en speciell och säkerligen populär uppsättning exempel som ligger mig varmt om hjärtat. Du förstår, i min egenskap av expert på AI inklusive de etiska och juridiska konsekvenserna, blir jag ofta ombedd att identifiera realistiska exempel som visar upp AI-etiska dilemman så att ämnets något teoretiska natur kan lättare förstås. Ett av de mest suggestiva områdena som på ett levande sätt presenterar detta etiska AI-problem är tillkomsten av AI-baserade äkta självkörande bilar. Detta kommer att fungera som ett praktiskt användningsfall eller exempel för omfattande diskussioner om ämnet.

Här är en anmärkningsvärd fråga som är värd att överväga: Belyser tillkomsten av AI-baserade äkta självkörande bilar något om AI-asymmetri, och i så fall, vad visar detta upp?

Tillåt mig en stund att packa upp frågan.

Observera först att det inte finns en mänsklig förare inblandad i en äkta självkörande bil. Tänk på att äkta självkörande bilar körs via ett AI-körsystem. Det finns inte ett behov av en mänsklig förare vid ratten, och det finns inte heller en bestämmelse för en människa att köra fordonet. För min omfattande och pågående bevakning av Autonomous Vehicles (AV) och speciellt självkörande bilar, se länken här.

Jag vill ytterligare klargöra vad som menas när jag hänvisar till riktiga självkörande bilar.

Förstå nivåerna av självkörande bilar

Som ett förtydligande är sanna självkörande bilar sådana där AI kör bilen helt på egen hand och det inte finns någon mänsklig hjälp under köruppgiften.

Dessa förarlösa fordon betraktas som nivå 4 och nivå 5 (se min förklaring på denna länk här), medan en bil som kräver en mänsklig förare för att dela köransträngningen vanligtvis anses vara på nivå 2 eller nivå 3. De bilar som delar på köruppgiften beskrivs som halvautonoma och innehåller vanligtvis en mängd olika automatiserade tillägg som kallas ADAS (Advanced Driver-Assistance Systems).

Det finns ännu inte en riktig självkörande bil på nivå 5, och vi vet ännu inte ens om detta kommer att vara möjligt att uppnå, inte heller hur lång tid det kommer att ta att komma dit.

Under tiden försöker nivå 4-ansträngningarna gradvis få lite dragkraft genom att genomgå mycket smala och selektiva offentliga vägförsök, även om det finns kontroverser om huruvida denna testning ska vara tillåten i sig (vi är alla liv-eller-död-marsvin i ett experiment. som äger rum på våra motorvägar och motorvägar, menar vissa, se min täckning på denna länk här).

Eftersom semi-autonoma bilar kräver en mänsklig förare, kommer antagandet av dessa typer av bilar inte att vara märkbart annorlunda än att köra konventionella fordon, så det finns inte mycket nytt i sig att täcka om dem om detta ämne (men som du kommer att se på ett ögonblick är de punkter som nästa görs generellt tillämpliga)

För semi-autonoma bilar är det viktigt att allmänheten måste varnas om en oroande aspekt som har uppstått på sistone, nämligen att trots de mänskliga förarna som fortsätter att lägga upp videor om sig själva somna vid ratten i en nivå 2 eller nivå 3 bil , vi måste alla undvika att bli vilseledda till att tro att föraren kan ta bort sin uppmärksamhet från köruppgiften medan han kör en semi-autonom bil.

Du är den ansvariga parten för fordonets körning, oavsett hur mycket automatisering som kan kastas till nivå 2 eller nivå 3.

Självkörande bilar och AI-asymmetri

För nivå 4 och 5 verkliga självkörande fordon finns det ingen mänsklig förare som är involverad i köruppgiften.

Alla passagerare kommer att vara passagerare.

AI kör körningen.

En aspekt att omedelbart diskutera innebär det faktum att AI involverad i dagens AI-körsystem inte är känslig. Med andra ord är AI helt och hållet en kollektiv datorbaserad programmering och algoritmer, och kan med säkerhet inte resonera på samma sätt som människor kan.

Varför är denna extra tonvikt om att AI inte är känslig?

Eftersom jag vill understryka att när jag diskuterar AI-drivsystemets roll tillskriver jag inte mänskliga egenskaper till AI. Tänk på att det idag finns en pågående och farlig tendens att antropomorfisera AI. I grund och botten tilldelar människor mänsklig känsla till dagens AI, trots det obestridliga och obestridliga faktum att ingen sådan AI finns än.

Med det förtydligandet kan du föreställa dig att AI-körsystemet inte på något sätt "vet" om körningens aspekter. Körning och allt det innebär kommer att behöva programmeras som en del av hårdvaran och mjukvaran i den självkörande bilen.

Låt oss dyka in i den myriad av aspekter som kommer att spela om detta ämne.

För det första är det viktigt att inse att inte alla AI självkörande bilar är likadana. Varje biltillverkare och självkörande teknikföretag tar sitt tillvägagångssätt för att utforma självkörande bilar. Som sådan är det svårt att göra svepande uttalanden om vad AI-körsystem kommer att göra eller inte.

Dessutom, närhelst man säger att ett AI-körsystem inte gör någon speciell sak, kan detta senare övertas av utvecklare som faktiskt programmerar datorn att göra just det. Steg för steg förbättras och utökas AI-körsystemen gradvis. En befintlig begränsning idag kanske inte längre existerar i en framtida iteration eller version av systemet.

Jag hoppas att det ger en tillräcklig litania av varningar för att ligga till grund för det jag ska berätta.

Låt oss skissa på ett scenario som visar upp AI-asymmetri.

Fundera på den till synes obetydliga frågan om var självkörande bilar kommer att roama för att plocka upp passagerare. Det här verkar vara ett mycket ofarligt ämne.

Anta först att AI självkörande bilar kommer att ströva runt i hela städer. Alla som vill beställa en tur i en självkörande bil har i princip lika stor chans att få en. Gradvis börjar AI:n att i första hand hålla de självkörande bilarna i roaming i bara en del av staden. Den här sektionen tjänar större pengar och AI har programmerats för att försöka maximera intäkter som en del av användningen i samhället i stort (detta understryker tankesättet bakom optimering, nämligen att fokusera på bara ett visst mått och försumma andra avgörande faktorer i processen).

Samhällsmedlemmar i de fattiga delarna av staden visar sig vara mindre benägna att kunna få skjuts från en självkörande bil. Detta beror på att de självkörande bilarna var längre bort och strövade i den högre inkomstdelen av staden. När en förfrågan kommer in från en avlägsen del av staden, skulle varje annan förfrågan från en närmare plats få högre prioritet. Så småningom är det nästan omöjligt att få en självkörande bil på något annat ställe än i den rikare delen av staden, irriterande så för dem som bodde i dessa nu resurssnåla områden.

Ut går de omtalade drömmarna om rörlighet för alla som självkörande bilar ska förverkliga.

Du kan påstå att AI helt och hållet landade på en form av statistisk och beräkningsbias, som liknar en form av proxy-diskriminering (även ofta kallad indirekt diskriminering). Inse att AI inte var programmerad för att undvika dessa fattigare stadsdelar. Låt oss vara tydliga med det i det här fallet. Nej, det utformades istället för att bara optimera intäkterna, ett till synes acceptabelt mål, men detta gjordes utan att AI-utvecklarna övervägde andra potentiella konsekvenser. Den optimeringen ledde i sin tur omedvetet och oundvikligen till ett oönskat resultat.

Hade de inkluderat AI-etiska överväganden som en del av deras optimeringstänk, kanske de hade insett i förväg att om de inte skapade AI:n för att klara av den här typen av överdimensionering enbart på ett enda mått, skulle de ha kunnat undvika sådana dystra resultat. För mer om dessa typer av problem som den utbredda användningen av autonoma fordon och självkörande bilar sannolikt kommer att medföra, se min bevakning på denna länk här, som beskriver en Harvard-ledd studie som jag var medförfattare till om dessa ämnen.

Antag i alla fall att hästen redan är ute ur ladugården och att situationen inte omedelbart är mottaglig för övergripande lösningar.

Vad kan de som vill använda de där självkörande bilarna göra?

Det mest uppenbara tillvägagångssättet skulle vara att arbeta med samhällsledare för att få biltillverkaren eller självkörande teknikföretaget att ompröva hur de har konfigurerat AI. Kanske sätta press på vilka licenser eller tillstånd som har beviljats ​​för utplaceringen av de självkörande bilarna i den staden eller staden. Dessa är sannolikt genomförbara sätt att åstadkomma positiva förändringar, även om det kan ta ett tag innan dessa ansträngningar bär frukt.

En annan vinkel skulle vara att beväpna dig med AI.

Föreställ dig att någon på ett smart sätt har utformat en AI-baserad app som fungerar på din smartphone och hanterar AI hos biltillverkaren eller flottoperatören som tar emot förfrågningar om åk. Det kan vara så att den AI du använder utnyttjar nyckelelementen i den andra AI så att en begäran om en självkörande bil av dig ges högre prioritet. Observera att jag inte antyder att något olagligt äger rum, utan istället att AI:n på din sida har utvecklats baserat på upptäckta "funktioner" eller till och med kryphål i den andra AI:n.

Slutsats

Berättelsen om att fräckt slå tillbaka mot AI hos den självkörande bilparkens operatör genom att beväpnas med AI tar upp ytterligare AI-etiska kontroverser och överväganden.

Till exempel:

  • Om en person kan använda AI för att ge dem en fördel gentemot en AI i något annat system, hur långt kan detta gå när det gäller att eventuellt korsa AI-etiska gränser (jag övertygar de självkörande bilarna att komma till mig och mina vänner, med uteslutande av alla andra)?
  • Finns det också något sken av AI-etik att om någon känner till eller är beväpnad med AI för att slåss med annan AI, bör de återstående människorna som inte har den balanserande AI på något sätt varnas för AI och kunna beväpna sig själva följaktligen också?

I slutändan tar allt detta oss till en framtid som verkar kuslig, bestående av en AI-kapprustning. Vem kommer att ha den AI som de behöver för att ta sig runt och överleva och vem har inte? Kommer det alltid att finnas en AI till som kommer och väcker behovet av en motvikts-AI?

Carl Sagan, den vördade vetenskapsmannen, gav denna vise visdom om särskilt katastrofala kapprustning: "Kärnvapenkapprustningen är som två svurna fiender som står djupt i bensin, en med tre tändstickor, den andra med fem."

Vi måste bestämt sikta på att hålla våra fötter torra och våra huvuden klara när det kommer till en ständigt hotande AI-kapprustning.

Källa: https://www.forbes.com/sites/lanceeliot/2022/08/19/ai-ethics-wary-about-worsening-of-ai-asymmetry-amid-humans-getting-the-short-end- of-the-stick/