AI-etik ringer larmklockor om det hotande spöket av AI-fördomar i massiv global skala, speciellt driven via hotande helt autonoma system

Platon sa att ett bra beslut baseras på kunskap och inte på siffror.

Denna skarpa insikt verkar förbluffande förutseende om dagens artificiell intelligens (AI).

Du förstår, trots de skrällande rubrikerna som för närvarande förkunnar att AI på något sätt har nått känslan och förkroppsligar mänsklig kunskap och resonemang, var medveten om att denna överdrivna AI-överdrivning är lömsk prevariation eftersom vi fortfarande förlitar oss på siffror i dagens algoritmbeslutsfattande (ADM). ) som utförs av AI-system. Även den omtalade Machine Learning (ML) och Deep Learning (DL) består av beräkningsmönstermatchning, vilket innebär att siffror fortfarande är kärnan i den upphöjda användningen av ML/DL.

Vi vet inte om AI-att nå sentience är möjligt. Kan vara, kanske inte. Ingen kan med säkerhet säga hur detta kan uppstå. Vissa tror att vi stegvis kommer att förbättra våra beräkningsbaserade AI-ansträngningar så att en form av känsla kommer spontant att uppstå. Andra tror att AI kan gå in i en slags beräkningssupernova och nå sentience ganska mycket på egen hand (vanligtvis kallad singularitet). För mer om dessa teorier om framtiden för AI, se min bevakning på länken här.

Så låt oss inte lura oss själva och felaktigt tro att modern AI kan tänka som människor. Jag antar att frågan då kommer i förgrunden om Platons anmärkning om huruvida vi kan ha bra beslut baserade på beräknings-AI snarare än på kännande AI. Du kanske blir förvånad över att veta att jag skulle hävda att vi verkligen kan ha bra beslut som fattas av vardagliga AI-system.

Den andra sidan av det myntet är att vi också kan ha vardagliga AI-system som fattar dåliga beslut. Rutna beslut. Beslut som är fulla av ogynnsamma fördomar och orättvisor. Du kanske är medveten om att när den senaste eran av AI började var det en enorm explosion av entusiasm för det som vissa nu kallar AI For Good. Tyvärr, i hälarna av den strömmande spänningen, började vi bevittna AI för dåligt. Till exempel har olika AI-baserade ansiktsigenkänningssystem avslöjats innehålla rasfördomar och genusfördomar, vilket jag har diskuterat på länken här.

Ansträngningar att slå tillbaka mot AI för dåligt pågår aktivt. Förutom högljudd laglig i strävan efter att tygla missförhållandena, finns det också en rejäl strävan mot att omfamna AI-etiken för att rätta till AI-elakheten. Tanken är att vi bör anta och godkänna viktiga etiska AI-principer för utveckling och fält av AI för att underskrida AI för dåligt och samtidigt förebåda och främja det föredragna AI For Good.

Min omfattande bevakning av AI-etik och etisk AI finns på denna länk här och denna länk här, bara för att nämna några.

För den här diskussionen skulle jag vilja ta upp en särskilt oroande aspekt om AI som de inom AI Ethics arenan med rätta beklagar och försöker öka lämplig medvetenhet om. Det nyktra och förvirrande är faktiskt ganska enkelt att påpeka.

Här är det: AI har den verkliga potentialen att sprida AI-riktade fördomar i en alarmerande global skala.

Och när jag säger "i stor skala" betyder detta bevisligen en global skala. Humongous skala. Våg som går utanför vågen.

Innan jag dyker in i hur denna skalning av AI-riktade fördomar kommer att ske, låt oss se till att vi alla har en sken av hur AI kan införliva otillbörliga fördomar och orättvisor. Kom ihåg igen att detta inte är av en känslomässig sort. Allt detta är av en beräkningsmässig kaliber.

Du kanske blir förbryllad över hur AI skulle kunna genomsyra samma slags negativa fördomar och orättvisor som människor gör. Vi tenderar att tänka på AI som helt neutral, opartisk, helt enkelt en maskin som inte har något av det känslomässiga svaj och fult tänkande som människor kan ha. Ett av de vanligaste sätten att AI hamnar i fördomar och ojämlikheter händer när man använder maskininlärning och djupinlärning, delvis som ett resultat av att man förlitar sig på insamlad data om hur människor fattar beslut.

Tillåt mig en stund att utarbeta.

ML/DL är en form av beräkningsmönstermatchning. Det vanliga tillvägagångssättet är att man samlar ihop data om en beslutsuppgift. Du matar in data i ML/DL-datormodellerna. Dessa modeller försöker hitta matematiska mönster. Efter att ha hittat sådana mönster, om så hittas, kommer AI-systemet att använda dessa mönster när det möter ny data. Vid presentationen av nya data tillämpas mönstren baserade på "gamla" eller historiska data för att göra ett aktuellt beslut.

Jag tror att ni kan gissa vart detta är på väg. Om människor som har fattat mönstrade beslut har införlivat ogynnsamma fördomar, är oddsen att data speglar detta på subtila men betydelsefulla sätt. Matchningen av beräkningsmönster för maskininlärning eller djupinlärning kommer helt enkelt att försöka matematiskt efterlikna data i enlighet därmed. Det finns inget sken av sunt förnuft eller andra kännande aspekter av AI-tillverkad modellering i sig.

Dessutom kanske AI-utvecklarna inte inser vad som händer heller. Den mystiska matematiken i ML/DL kan göra det svårt att ta bort de nu dolda fördomarna. Du skulle med rätta hoppas och förvänta dig att AI-utvecklarna skulle testa för de potentiellt begravda fördomarna, även om detta är svårare än det kan verka. Det finns en stor chans att det även med relativt omfattande tester kommer att finnas fördomar inbäddade i mönstermatchningsmodellerna för ML/DL.

Du skulle kunna använda det berömda eller ökända ordspråket om skräp-in skräp-ut. Saken är den att detta är mer besläktat med fördomar-in som smygande blir infunderade när fördomar nedsänkt i AI. Algoritmen för beslutsfattande eller ADM för AI blir axiomatiskt laddat med orättvisor.

Inte bra.

Detta för oss till frågan om AI-riktade fördomar när de är i skala.

Låt oss först ta en titt på hur mänskliga fördomar kan skapa orättvisor. Ett företag som gör bolån bestämmer sig för att anlita en bolåneagent. Agenten är tänkt att granska förfrågningar från konsumenter som vill få ett bostadslån. Efter att ha bedömt en ansökan fattar agenten ett beslut om att antingen bevilja lånet eller neka lånet. Lätt som en plätt.

För diskussionens skull, låt oss föreställa oss att en mänsklig låneagent kan analysera 8 lån per dag, vilket tar ungefär en timme per granskning. Under en femdagars arbetsvecka gör agenten cirka 40 lånerecensioner. På årsbasis gör agenten vanligtvis runt 2,000 XNUMX lånerecensioner, ger eller tar lite.

Företaget vill öka sin volym av lånerecensioner, därför anställer företaget ytterligare 100 låneombud. Låt oss anta att de alla har ungefär samma produktivitet och att detta innebär att vi nu kan hantera cirka 200,000 2,000 lån per år (med en hastighet av XNUMX XNUMX lånerecensioner per år och agent). Det verkar som att vi verkligen har ökat vår handläggning av låneansökningar.

Det visar sig att företaget utvecklar ett AI-system som i princip kan göra samma lånerecensioner som de mänskliga agenterna. AI:n körs på datorservrar i molnet. Via molninfrastrukturen kan företaget enkelt lägga till mer datorkraft för att tillgodose alla volymer av lånerecensioner som kan behövas.

Med den befintliga AI-konfigurationen kan de göra 1,000 24 lånerecensioner per timme. Detta kan också hända 7×9. Det behövs ingen semestertid för AI. Inga lunchraster. AI:n arbetar dygnet runt utan att gnälla över att vara överansträngd. Vi kommer att säga att i den ungefärliga takten kan AI:n behandla nästan XNUMX miljoner låneansökningar per år.

Lägg märke till att vi gick från att ha 100 mänskliga agenter som kunde göra 200,000 9 lån per år och hoppade många gånger över till det kraftigt ökade antalet XNUMX miljoner recensioner per år via AI-systemet. Vi har skalat upp vår behandling av låneförfrågningar dramatiskt. Ingen tvekan om det.

Gör dig redo för kickern som kanske får dig att ramla av stolen.

Antag att några av våra mänskliga agenter fattar sina lånebeslut på grundval av ogynnsamma fördomar. Kanske ger vissa rasfaktorer en nyckelroll i lånebeslutet. Kanske använder vissa kön. Andra använder ålder. Och så vidare.

Hur många av de 200,000 10 årliga lånegranskningarna görs under den felaktiga blicken av negativa fördomar och orättvisor? Kanske 20,000% vilket är runt 50 100,000 av låneförfrågningarna. Ännu värre, anta att det är XNUMX % av låneförfrågningarna, i vilket fall det finns ganska oroande XNUMX XNUMX årliga fall av felaktigt beslutade lånebeslut.

Det är dåligt. Men vi har ännu inte övervägt en ännu mer skrämmande möjlighet.

Anta att AI har en dold fördom som består av faktorer som ras, kön, ålder och liknande. Om 10 % av de årliga låneanalyserna är föremål för detta obehag har vi 900,000 100 låneförfrågningar som hanteras felaktigt. Det är mycket mer än vad de mänskliga agenterna kan göra, främst på grund av volymaspekterna. Dessa 200,000 agenter, om alla helt och hållet gjorde en orättvis granskning, skulle som mest kunna göra detta på de 9,000,000 XNUMX årliga lånerecensionerna. AI skulle kunna göra detsamma i en mycket stor skala av de XNUMX XNUMX XNUMX årliga granskningarna.

Usch!

Detta är verkligen AI-riktad bias i en enorm skala.

När ogynnsamma fördomar finns inbäddade i ett AI-system, vänds nu samma skalning som verkade fördelaktigt på huvudet och blir ett monstruöst tjusande (och störande) skalningsresultat. Å ena sidan kan AI på ett fördelaktigt sätt öka för att hantera fler människor som begär bostadslån. På ytan verkar det fantastiskt AI For Good. Vi borde klappa oss själva på axeln för att vi förmodligen utökar chanserna för människor att få nödvändiga lån. Under tiden, om AI:n har inbäddade fördomar, kommer skalningen att bli ett oerhört ruttet resultat och vi befinner oss beklagligt fast i AI för dåligt, i en riktigt stor skala.

Det ökända tveeggade svärdet.

AI kan radikalt öka tillgången till beslutsfattande för dem som söker önskade tjänster och produkter. Ingen mer flaskhals för arbetskraft som är begränsad av människor. Utestående! Den andra kanten av svärdet är att om AI innehåller ondska som dolda orättvisor, kommer samma massiva skalning att promulgera det ogynnsamma beteendet i en ofattbar skala. Irriterande, felaktigt, skamligt, och vi kan inte tillåta att samhället hamnar i en sådan ful avgrund.

Alla som har varit förbryllade över varför vi måste slå ifrån oss vikten av AI-etik borde nu inse att AI-skalningsfenomenet är en förbannat viktig anledning till att satsa på etisk AI. Låt oss ta en stund för att kortfattat överväga några av de viktigaste etiska AI-recepten för att illustrera vad som borde vara ett viktigt fokus för alla som skapar, använder eller använder AI.

Till exempel, som anges av Vatikanen i Rome Call For AI Ethics och som jag har täckt ingående på länken här, dessa är deras identifierade sex primära AI-etiska principer:

  • Öppenhet: I princip måste AI-system vara förklarliga
  • integration: Alla människors behov måste beaktas så att alla får nytta och alla individer kan erbjudas bästa möjliga förutsättningar att uttrycka sig och utvecklas.
  • Ansvar: De som designar och distribuerar användningen av AI måste fortsätta med ansvar och transparens
  • Opartiskhet: Skapa inte eller agera inte i enlighet med partiskhet, vilket skyddar rättvisa och mänsklig värdighet
  • Pålitlighet: AI-system måste kunna fungera tillförlitligt
  • Säkerhet och integritet: AI-system måste fungera säkert och respektera användarnas integritet.

Som anges av det amerikanska försvarsdepartementet (DoD) i deras Etiska principer för användning av artificiell intelligens och som jag har täckt ingående på länken här, dessa är deras sex primära AI-etiska principer:

  • Ansvarig: DoD-personal kommer att utöva lämpliga nivåer av omdöme och omsorg samtidigt som de förblir ansvarig för utveckling, implementering och användning av AI-kapacitet.
  • Rättvis: Avdelningen kommer att vidta medvetna åtgärder för att minimera oavsiktlig fördom i AI-kapacitet.
  • Spårbar: Institutionens AI-kapacitet kommer att utvecklas och distribueras så att relevant personal har en lämplig förståelse för tekniken, utvecklingsprocesser och operativa metoder som är tillämpliga på AI-kapacitet, inklusive med transparenta och revisionsbara metoder, datakällor och designprocedurer och dokumentation.
  • Pålitlig: Avdelningens AI-förmågor kommer att ha explicita, väldefinierade användningsområden, och säkerheten, säkerheten och effektiviteten för sådana förmågor kommer att bli föremål för testning och försäkran inom de definierade användningarna över hela deras livscykel.
  • Styrbar: Avdelningen kommer att designa och konstruera AI-kapacitet för att uppfylla sina avsedda funktioner samtidigt som den har förmågan att upptäcka och undvika oavsiktliga konsekvenser, och förmågan att koppla ur eller inaktivera utplacerade system som visar oavsiktligt beteende.

Jag har också diskuterat olika kollektiva analyser av AI-etiska principer, inklusive att ha täckt en uppsättning utarbetad av forskare som undersökte och kondenserade essensen av många nationella och internationella AI-etiska principer i en artikel med titeln "The Global Landscape Of AI Ethics Guidelines" (publicerad i Natur), och som min bevakning utforskar kl länken här, vilket ledde till denna keystone-lista:

  • Öppenhet
  • Rättvisa & Rättvisa
  • Icke-ondska
  • Ansvar
  • Integritetspolicy
  • Välgörenhet
  • Frihet & autonomi
  • Litar
  • Hållbarhet
  • Värdighet
  • Solidaritet

Som du direkt kan gissa kan det vara extremt svårt att försöka fastställa detaljerna bakom dessa principer. Ännu mer så är ansträngningen att förvandla dessa breda principer till något helt påtagligt och tillräckligt detaljerat för att användas när man skapar AI-system också en svår nöt att knäcka. Det är lätt att på det hela taget vifta lite om vad AI-etiska föreskrifter är och hur de generellt bör följas, medan det är en mycket mer komplicerad situation när AI-kodningen måste vara det veritabla gummit som möter vägen.

AI-etiska principer ska användas av AI-utvecklare, tillsammans med de som hanterar AI-utvecklingsinsatser, och även de som i slutändan arbetar med och utför underhåll av AI-system. Alla intressenter under hela AI-livscykeln för utveckling och användning anses vara inom ramen för att följa de etablerade normerna för etisk AI. Detta är en viktig höjdpunkt eftersom det vanliga antagandet är att "endast kodare" eller de som programmerar AI:n är föremål för att följa AI-etikbegreppet. Var medveten om att det krävs en by för att utveckla och sätta in AI. För vilket hela byn måste hålla sig på tårna om AI-etik.

Hur AI-Steeped Biases Scaling fungerar

Nu när jag har kommit in på bordet att AI kan innehålla fördomar, är vi redo att undersöka några av anledningarna till att AI-skalning är så påträngande.

Tänk på denna keystone-lista med tio bakomliggande orsaker:

  1. Lätt att replikera
  2. Minimal kostnad att skala
  3. Avskyvärt konsekvent
  4. Brist på självreflektion
  5. Blind lydnad
  6. Tippar inte med handen
  7. Mottagare intet ont anande
  8. Tenderar inte att sporra till provokation
  9. Falsk aura av rättvisa
  10. Svårt att motbevisa

Jag ska kort utforska var och en av dessa avgörande punkter.

När du försöker skala upp med mänskligt arbete är oddsen att det kommer att bli enormt komplicerat. Du måste hitta och anställa folket. Du måste träna dem för att göra jobbet. Du måste betala dem och ta hänsyn till mänskliga önskemål och behov. Jämför detta med ett AI-system. Du utvecklar den och tar den i bruk. Förutom en viss mängd pågående underhåll av AI kan du luta dig tillbaka och låta den bearbetas i det oändliga.

Detta innebär att AI lätt kan replikeras. Du kan lägga till mer datorkraft allteftersom uppgiften och volymen kan kräva det (du anställer inte eller sparkar). Global användning sker med en knapptryckning och uppnås genom den globala tillgängligheten av Internet. Uppskalningen är en minimal kostnad i jämförelse med att göra likadant med mänskligt arbete.

Mänskligt arbete är notoriskt inkonsekvent. När du har stora team har du en veritabel chokladask i det att du aldrig vet vad du kan ha på händerna. AI-systemet kommer sannolikt att vara mycket konsekvent. Den upprepar samma aktiviteter om och om igen, varje gång är i huvudsak densamma som den senaste.

Normalt sett skulle vi njuta av AI-konsistens. Om människor är benägna att fördomar, kommer vi alltid att ha en del av vårt mänskliga arbete som kommer på avvägar. AI, om den rent opartisk i sin konstruktion och beräkningsansträngningar, skulle vara överlägset mer konsekvent. Problemet är dock att om AI har dolda fördomar är konsistensen nu smärtsamt avskyvärd. Oddsen är att det partiska beteendet kommer att utföras konsekvent, om och om igen.

Människor skulle förhoppningsvis ha en aning om självreflektion och kanske fånga sig själva i att fatta partiska beslut. Jag säger inte att alla skulle göra det. Jag säger inte heller att de som tar sig själva nödvändigtvis kommer att rätta till sina fel. I alla fall skulle åtminstone vissa människor ibland rätta sig själva.

Det är osannolikt att AI har någon form av beräkningsmässig självreflektion. Det betyder att AI:n bara fortsätter att göra vad den gör. Det verkar vara noll chans för AI:n att upptäcka att den går i strid med eget kapital. Med detta sagt har jag beskrivit några ansträngningar för att hantera detta, som att bygga AI-etikkomponenter inom AI (se länken här) och utveckla AI som övervakar annan AI för att urskilja oetiska AI-aktiviteter (se länken här).

I brist på någon form av självreflektion kommer AI sannolikt också att ha i huvudsak blind lydnad till vad den än blivit instruerad att göra. Människor kanske inte är så lydiga. Chansen är stor att en del människor som gör en uppgift kommer att ifrågasätta om de kanske vägleds in i orättvisa territorium. De skulle tendera att avvisa oetiska kommandon eller kanske gå whistleblower-vägen (se min bevakning på denna länk här). Förvänta dig inte att den vardagliga samtida AI på något sätt ifrågasätter dess programmering.

Vi övergår sedan till de som använder AI. Om du letade efter ett bostadslån och pratade med en människa, kan du vara uppmärksam på om människan ger dig en rättvis skaka. När man använder ett AI-system verkar de flesta vara mindre misstänksamma. De utgår ofta från att AI:n är rättvis och blir därför inte lika snabbt upprörda. AI:n verkar invagga människor i en "det är bara en maskin"-trans. Utöver detta kan det vara svårt att försöka protestera mot AI. Däremot är det mycket lättare att protestera mot hur du blev behandlad av en mänsklig agent och mycket mer allmänt accepterad och antagen som möjlig.

Allt som allt har AI som är genomsyrad av fördomar ett ohederligt försprång jämfört med människor som är genomsyrade av fördomar, nämligen när det gäller att kunna få AI:n massivt att distribuera dessa fördomar i en gigantisk skala, utan att lika lätt bli fångad eller ha konsumenter inse vad som oroande händer.

Vid denna tidpunkt av den här diskussionen skulle jag slå vad om att du är sugen på några ytterligare exempel som kan visa upp gåtan med AI-fyllda fördomar i stor skala.

Jag är glad att du frågade.

Det finns en speciell och säkerligen populär uppsättning exempel som ligger mig varmt om hjärtat. Du förstår, i min egenskap av expert på AI inklusive de etiska och juridiska konsekvenserna, blir jag ofta ombedd att identifiera realistiska exempel som visar upp AI-etiska dilemman så att ämnets något teoretiska natur kan lättare förstås. Ett av de mest suggestiva områdena som på ett levande sätt presenterar detta etiska AI-problem är tillkomsten av AI-baserade äkta självkörande bilar. Detta kommer att fungera som ett praktiskt användningsfall eller exempel för omfattande diskussioner om ämnet.

Här är en anmärkningsvärd fråga som är värd att överväga: Belyser tillkomsten av AI-baserade äkta självkörande bilar någonting om AI-fördomar i stor skala, och i så fall, vad visar detta upp?

Tillåt mig en stund att packa upp frågan.

Observera först att det inte finns en mänsklig förare inblandad i en äkta självkörande bil. Tänk på att äkta självkörande bilar körs via ett AI-körsystem. Det finns inte ett behov av en mänsklig förare vid ratten, och det finns inte heller en bestämmelse för en människa att köra fordonet. För min omfattande och pågående bevakning av Autonomous Vehicles (AV) och speciellt självkörande bilar, se länken här.

Jag vill ytterligare klargöra vad som menas när jag hänvisar till riktiga självkörande bilar.

Förstå nivåerna av självkörande bilar

Som ett förtydligande är sanna självkörande bilar sådana som AI kör bilen helt på egen hand och det finns ingen mänsklig hjälp under köruppgiften.

Dessa förarlösa fordon betraktas som nivå 4 och nivå 5 (se min förklaring på denna länk här), medan en bil som kräver en mänsklig förare för att dela köransträngningen vanligtvis anses vara på nivå 2 eller nivå 3. De bilar som delar på köruppgiften beskrivs som halvautonoma och innehåller vanligtvis en mängd olika automatiserade tillägg som kallas ADAS (Advanced Driver-Assistance Systems).

Det finns ännu inte en riktig självkörande bil på nivå 5, som vi ännu inte vet om det är möjligt att uppnå och inte heller hur lång tid det kommer att ta sig dit.

Under tiden försöker nivå 4-ansträngningarna gradvis få lite dragkraft genom att genomgå mycket smala och selektiva offentliga vägförsök, även om det finns kontroverser om huruvida denna testning ska vara tillåten i sig (vi är alla liv-eller-död-marsvin i ett experiment. som äger rum på våra motorvägar och motorvägar, menar vissa, se min täckning på denna länk här).

Eftersom semi-autonoma bilar kräver en mänsklig förare, kommer antagandet av dessa typer av bilar inte att vara märkbart annorlunda än att köra konventionella fordon, så det finns inte mycket nytt i sig att täcka om dem om detta ämne (men som du kommer att se på ett ögonblick är de punkter som nästa görs generellt tillämpliga)

För semi-autonoma bilar är det viktigt att allmänheten måste varnas om en oroande aspekt som har uppstått på sistone, nämligen att trots de mänskliga förarna som fortsätter att lägga upp videor om sig själva somna vid ratten i en nivå 2 eller nivå 3 bil , vi måste alla undvika att bli vilseledda till att tro att föraren kan ta bort sin uppmärksamhet från köruppgiften medan han kör en semi-autonom bil.

Du är den ansvariga parten för fordonets körning, oavsett hur mycket automatisering som kan kastas till nivå 2 eller nivå 3.

Självkörande bilar och AI-fördomar i stor skala

För nivå 4 och 5 verkliga självkörande fordon finns det ingen mänsklig förare som är involverad i köruppgiften.

Alla passagerare kommer att vara passagerare.

AI kör körningen.

En aspekt att omedelbart diskutera innebär det faktum att AI involverad i dagens AI-körsystem inte är känslig. Med andra ord är AI helt och hållet en kollektiv datorbaserad programmering och algoritmer, och kan med säkerhet inte resonera på samma sätt som människor kan.

Varför är denna extra tonvikt om att AI inte är känslig?

Eftersom jag vill understryka att när jag diskuterar AI-drivsystemets roll tillskriver jag inte mänskliga egenskaper till AI. Tänk på att det idag finns en pågående och farlig tendens att antropomorfisera AI. I grund och botten tilldelar människor mänsklig känsla till dagens AI, trots det obestridliga och obestridliga faktum att ingen sådan AI finns än.

Med det förtydligandet kan du föreställa dig att AI-körsystemet inte på något sätt "vet" om körningens aspekter. Körning och allt det innebär kommer att behöva programmeras som en del av hårdvaran och mjukvaran i den självkörande bilen.

Låt oss dyka in i den myriad av aspekter som kommer att spela om detta ämne.

För det första är det viktigt att inse att inte alla AI självkörande bilar är likadana. Varje biltillverkare och självkörande teknikföretag tar sitt tillvägagångssätt för att utforma självkörande bilar. Som sådan är det svårt att göra svepande uttalanden om vad AI-körsystem kommer att göra eller inte.

Dessutom, närhelst man säger att ett AI-körsystem inte gör någon speciell sak, kan detta senare övertas av utvecklare som faktiskt programmerar datorn att göra just det. Steg för steg förbättras och utökas AI-körsystemen gradvis. En befintlig begränsning idag kanske inte längre existerar i en framtida iteration eller version av systemet.

Jag litar på att det ger en tillräcklig litania av varningar för att ligga till grund för det jag ska berätta.

Vi är redo att göra en djupdykning i självkörande bilar och de etiska AI-möjligheterna som innebär utforskning av AI-riktade fördomar som sprids i stor skala.

Låt oss använda ett enkelt exempel. En AI-baserad självkörande bil är på gång på dina grannskapsgator och verkar köra säkert. Till en början hade du ägnat särskild uppmärksamhet åt varje gång du lyckades få en skymt av den självkörande bilen. Det autonoma fordonet stack ut med sitt rack av elektroniska sensorer som inkluderade videokameror, radarenheter, LIDAR-enheter och liknande. Efter många veckor av den självkörande bilen som kryssar runt i ditt samhälle, märker du nu knappt det. För dig är det bara en annan bil på de redan trafikerade allmänna vägarna.

För att du inte tror att det är omöjligt eller osannolikt att bli bekant med att se självkörande bilar, jag har ofta skrivit om hur lokalerna som ligger inom ramen för självkörande bilprover gradvis har vant sig vid att se de piffade fordonen, se min analys på denna länk här. Många av lokalbefolkningen gick så småningom från mungapande hänförd blick till att nu avge en expansiv gäspning av tristess för att bevittna de slingrande självkörande bilarna.

Förmodligen är den främsta anledningen just nu till att de kan lägga märke till de autonoma fordonen på grund av irritations- och irritationsfaktorn. De bokförda AI-körsystemen ser till att bilarna följer alla hastighetsgränser och trafikregler. För hektiska mänskliga förare i sina traditionella människodrivna bilar blir man irriterad ibland när man sitter fast bakom de strikt laglydiga AI-baserade självkörande bilarna.

Det är något vi alla kan behöva vänja oss vid, med rätta eller fel.

Tillbaka till vår berättelse.

Det visar sig att två olämpliga farhågor börjar dyka upp om de annars ofarliga och allmänt välkomnade AI-baserade självkörande bilarna, specifikt:

a. Där AI:n strövar omkring var de självkörande bilarna för att hämta åk som ett uttalat bekymmer

b. Hur AI behandlar väntande fotgängare som inte har företrädesrätt var ett akut problem

Till en början strövade AI mellan de självkörande bilarna i hela staden. Alla som ville begära en åktur i den självkörande bilen hade i princip lika stor chans att ta emot en. Gradvis började AI i första hand hålla de självkörande bilarna i roaming i bara en del av staden. Den här sektionen tjänade större pengar och AI-systemet hade programmerats för att försöka maximera intäkterna som en del av användningen i samhället.

Samhällsmedlemmar i de fattiga delarna av staden var mindre benägna att få skjuts från en självkörande bil. Detta berodde på att de självkörande bilarna var längre bort och strövade i den högre inkomstdelen av orten. När en förfrågan kom in från en avlägsen del av staden, skulle varje förfrågan från en närmare plats som sannolikt var i den "aktade" delen av staden få högre prioritet. Så småningom var det nästan omöjligt att få en självkörande bil på något annat ställe än i den rikare delen av staden, irriterande så för dem som bodde i dessa nu resurssnåla områden.

Du kan hävda att AI i stort sett landade på en form av proxy-diskriminering (även ofta kallad indirekt diskriminering). AI:n var inte programmerad för att undvika dessa fattigare stadsdelar. Istället "lärde den sig" att göra det genom att använda ML/DL.

Saken är den att mänskliga förare som delar åk var kända för att göra samma sak, men inte nödvändigtvis uteslutande på grund av vinklingen att tjäna pengar. Det var några av de mänskliga chaufförerna som delades ut som hade en olämplig partiskhet när det gällde att plocka upp ryttare i vissa delar av staden. Detta var ett något känt fenomen och staden hade infört en övervakningsmetod för att fånga mänskliga förare som gör detta. Mänskliga förare kan hamna i trubbel för att utföra ogynnsamma urvalsmetoder.

Det antogs att AI:n aldrig skulle hamna i samma typ av kvicksand. Ingen specialiserad övervakning sattes upp för att hålla reda på vart de AI-baserade självkörande bilarna tog vägen. Först efter att medlemmarna i samhället började klaga insåg stadens ledare vad som hände. För mer om dessa typer av stadsövergripande frågor som autonoma fordon och självkörande bilar kommer att presentera, se min bevakning på denna länk här och som beskriver en Harvard-ledd studie som jag var medförfattare till i ämnet.

Det här exemplet på roaming-aspekterna hos de AI-baserade självkörande bilarna illustrerar den tidigare indikationen på att det kan finnas situationer som involverar människor med oförutsedda fördomar, för vilka kontroller sätts på plats, och att AI:n som ersätter dessa mänskliga förare lämnas skotsk- fri. Tyvärr kan AI sedan stegvis fastna i liknande fördomar och göra det utan tillräckligt med skyddsräcken på plats.

Detta visar också upp AI:s fördomar i skala.

När det gäller mänskliga förare kan vi ha haft några här eller där som utövade någon form av orättvisa. För AI-körsystemet är det vanligtvis en sådan enhetlig AI för en hel flotta av självkörande bilar. Således kan vi ha börjat med säg femtio självkörande bilar i staden (alla körs med samma AI-kod), och gradvis ökat till låt oss säga 500 självkörande bilar (alla körs med samma AI-kod). Eftersom alla dessa femhundra självkörande bilar körs av samma AI, är de på motsvarande sätt alla föremål för samma härledda fördomar och orättvisor inbäddade i AI:n.

Skalning skadar oss i det avseendet.

Ett andra exempel involverar AI som avgör om den ska stanna för väntande fotgängare som inte har företrädesrätt att korsa en gata.

Du har utan tvekan kört bil och stött på fotgängare som väntade på att korsa gatan och ändå hade de inte företrädesrätt att göra det. Detta innebar att du hade möjlighet att bestämma om du skulle stanna och låta dem gå över. Du kan fortsätta utan att låta dem passera och fortfarande vara helt inom de lagliga körreglerna för att göra det.

Studier av hur mänskliga förare bestämmer sig för att stanna eller inte stanna för sådana fotgängare har antytt att de mänskliga förarna ibland gör valet baserat på ogynnsamma fördomar. En mänsklig förare kan titta på fotgängaren och välja att inte stanna, även om de skulle ha stannat om fotgängaren hade ett annat utseende, till exempel baserat på ras eller kön. Jag har undersökt detta kl länken här.

Föreställ dig att de AI-baserade självkörande bilarna är programmerade att hantera frågan om de ska stanna eller inte stanna för fotgängare som inte har företrädesrätt. Så här bestämde sig AI-utvecklarna för att programmera den här uppgiften. De samlade in data från stadens videokameror som är placerade runt om i staden. Data visar upp mänskliga förare som stannar för fotgängare som inte har företrädesrätt och mänskliga förare som inte stannar. Allt är samlat i en stor datamängd.

Genom att använda Machine Learning och Deep Learning modelleras data beräkningsmässigt. AI-körsystemet använder sedan denna modell för att bestämma när det ska stanna eller inte stanna. Generellt sett är tanken att oavsett vad den lokala seden består av så är det så AI:n kommer att styra den självkörande bilen.

Till stadsledarnas och invånarnas förvåning valde AI uppenbarligen att stoppa eller inte sluta baserat på fotgängarens utseende, inklusive deras ras och kön. Sensorerna i den självkörande bilen skulle skanna den väntande fotgängaren, mata in dessa data till ML/DL-modellen och modellen skulle avge till AI om den skulle stanna eller fortsätta. Beklagligt nog hade staden redan många mänskliga fördomar i detta avseende och AI härmade nu samma sak.

Det här exemplet illustrerar att ett AI-system bara kan duplicera de redan existerande ogynnsamma fördomarna hos människor. Dessutom gör den det i stor skala. Alla mänskliga förare kan ibland ha lärt sig att göra denna ogynnsamma form av urval eller kanske personligen valt att göra det, men chansen är att huvuddelen av de mänskliga förarna förmodligen inte gör detta i massor.

I skarp kontrast kommer det AI-körsystem som används för att köra självkörande bilar sannolikt avskyvärt konsekvent och säkert att utföra den härledda fördomen.

Slutsats

Det finns en mängd sätt att försöka undvika att skapa AI som har ogynnsamma fördomar eller som med tiden samlar på sig fördomar. Så mycket som möjligt är tanken att fånga problemen innan du går in på högvarv och rampar upp för skalning. Förhoppningsvis kommer fördomar inte ut genom dörren, så att säga.

Antag dock att fördomar på ett eller annat sätt kommer att uppstå i AI. När du väl har distribuerats i massiv skala med AI, kan du inte bara göra en av dessa ofta utropade tekniker som "elda och glömma". Du måste flitigt hålla koll på vad AI gör och försöka upptäcka eventuella ogynnsamma fördomar som behöver korrigeras.

Som tidigare påpekats innebär ett tillvägagångssätt att se till att AI-utvecklare är medvetna om AI-etiken och sporrar dem att vara på tårna för att programmera AI:n för att undvika dessa problem. En annan väg består av att låta AI självövervaka sig själv för oetiska beteenden och/eller ha en annan del av AI som övervakar andra AI-system för potentiellt oetiska beteenden. Jag har täckt många andra potentiella lösningar i mina skrifter.

En sista tanke för nu. Efter att ha börjat denna diskussion med ett citat av Platon, kan det vara passande att avsluta diskursen med ännu ett listigt uttalande av Platon.

Platon sa att det inte är någon skada att upprepa en bra sak.

Lättheten att gå i skala med AI är verkligen ett gångbart sätt att uppnå en sådan optimistisk ambition när AI är av AI For Good mängd. Vi njuter av att upprepa en bra sak. När AI är AI för dåligt och fyllda av ogynnsamma fördomar och orättvisor, kan vi luta oss mot Platons kommentarer och säga att det finns en stor skada i att upprepa en dålig sak.

Låt oss lyssna noga på Platons kloka ord och utforma vår AI därefter.

Källa: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- global skala-särskilt-driven-via-hotande-helt-autonoma-system/