AI-etik säger att AI bör användas speciellt när mänskliga fördomar finns

Människor har lärt känna sina begränsningar.

Du kanske minns den besläktade berömda repliken om att känna till våra begränsningar, så som karaktären Dirty Harry yttrade i 1973 års film med titeln. Magnum Force (enligt skådespelaren Clint Eastwoods uttalade ord i hans minnesvärda roll som inspektör Harry Callahan). Den övergripande uppfattningen är att vi ibland tenderar att förbise våra egna gränser och få oss i varmt vatten i enlighet därmed. Oavsett om det beror på hybris, att vara egocentrisk eller helt enkelt blind för våra egna förmågor, är föreskriften att vara medveten om och ta explicit hänsyn till våra böjelser och brister mycket förnuftig och hjälpsam.

Låt oss lägga till en ny twist på salviarådet.

Artificiell intelligens (AI) har lärt känna dess begränsningar.

Vad menar jag med den varianten av den vördade slagordet?

Det visar sig att den första brådskan för att få dagens AI att användas som en hoppfull lösare av världens problem har blivit nedsmutsad och totalt förvirrad av insikten att dagens AI faktiskt har några ganska allvarliga begränsningar. Vi gick från de upplyftande rubrikerna på AI For Good och har blivit alltmer fast i oss själva AI för dåligt. Du förstår, många AI-system har utvecklats och ställts inför alla möjliga sorters ogynnsamma ras- och könsfördomar, och en myriad av andra sådana fruktansvärda orättvisor.

För min omfattande och pågående bevakning av AI-etik och etisk AI, se länken här och länken här, bara för att nämna några.

De fördomar som upptäcks i dessa AI-system är inte av den ska vi säga "avsiktliga" typen som vi skulle tillskriva mänskligt beteende. Jag nämner detta för att understryka att dagens AI inte är sentient. Trots dessa skrällande rubriker som antyder något annat, finns det bara ingen AI någonstans som ens kommer i närheten av meningen. Utöver det vet vi inte hur vi ska få in AI i meningsfästet, plus att ingen kan säga säkert om vi någonsin kommer att uppnå AI-känsla. Kanske kommer det att hända någon gång, eller kanske inte.

Så, min poäng är att vi inte kan särskilt tilldela avsikter till den typ av AI som vi för närvarande har. Med det sagt, vi kan rikligt tilldela avsikter till dem som skapar AI-system. Vissa AI-utvecklare är omedvetna om det faktum att de har skapat ett AI-system som innehåller obehagliga och möjligen olagliga fördomar. Samtidigt inser andra AI-utvecklare att de ingjuter fördomar i sina AI-system, vilket potentiellt gör det på ett målmedvetet felaktigt sätt.

Oavsett vilket är resultatet fortfarande olämpligt och sannolikt olagligt.

Kraftfulla ansträngningar pågår för att sprida AI-etiska principer som kommer att upplysa AI-utvecklare och ge lämplig vägledning för att undvika att bädda in fördomar i deras AI-system. Detta kommer att hjälpa på ett tvådelat sätt. För det första kommer de som skapar AI inte längre att ha den klara ursäkten att de helt enkelt inte var medvetna om vilka föreskrifter som borde följas. För det andra kommer de som avviker från de etiska AI-förhållandena att lättare fångas upp och visas som att de avvärjer det som de varnats för att både göra och inte göra.

Låt oss ta en stund för att kortfattat överväga några av de viktigaste etiska AI-recepten för att illustrera vad AI-byggare borde tänka på och strikt vidta från en AI-etisk hållning.

Som anges av Vatikanen i Rome Call For AI Ethics och som jag har täckt ingående på länken här, dessa är deras identifierade sex primära AI-etiska principer:

  • Öppenhet: I princip måste AI-system vara förklarliga
  • integration: Alla människors behov måste beaktas så att alla får nytta och alla individer kan erbjudas bästa möjliga förutsättningar att uttrycka sig och utvecklas.
  • Ansvar: De som designar och distribuerar användningen av AI måste fortsätta med ansvar och transparens
  • Opartiskhet: Skapa inte eller agera inte i enlighet med partiskhet, vilket skyddar rättvisa och mänsklig värdighet
  • Pålitlighet: AI-system måste kunna fungera tillförlitligt
  • Säkerhet och integritet: AI-system måste fungera säkert och respektera användarnas integritet.

Som anges av det amerikanska försvarsdepartementet (DoD) i deras Etiska principer för användning av artificiell intelligens och som jag har täckt ingående på länken här, dessa är deras sex primära AI-etiska principer:

  • Ansvarig: DoD-personal kommer att utöva lämpliga nivåer av omdöme och omsorg samtidigt som de förblir ansvarig för utveckling, implementering och användning av AI-kapacitet.
  • Rättvis: Avdelningen kommer att vidta medvetna åtgärder för att minimera oavsiktlig fördom i AI-kapacitet.
  • Spårbar: Institutionens AI-kapacitet kommer att utvecklas och distribueras så att relevant personal har en lämplig förståelse för tekniken, utvecklingsprocesser och operativa metoder som är tillämpliga på AI-kapacitet, inklusive med transparenta och revisionsbara metoder, datakällor och designprocedurer och dokumentation.
  • Pålitlig: Avdelningens AI-förmågor kommer att ha explicita, väldefinierade användningsområden, och säkerheten, säkerheten och effektiviteten för sådana förmågor kommer att bli föremål för testning och försäkran inom de definierade användningarna över hela deras livscykel.
  • Styrbar: Avdelningen kommer att designa och konstruera AI-kapacitet för att uppfylla sina avsedda funktioner samtidigt som den har förmågan att upptäcka och undvika oavsiktliga konsekvenser, och förmågan att koppla ur eller inaktivera utplacerade system som visar oavsiktligt beteende.

Jag har också diskuterat olika kollektiva analyser av AI-etiska principer, inklusive att ha täckt en uppsättning utarbetad av forskare som undersökte och kondenserade essensen av många nationella och internationella AI-etiska principer i en artikel med titeln "The Global Landscape Of AI Ethics Guidelines" (publicerad i Natur), och som min bevakning utforskar kl länken här, vilket ledde till denna keystone-lista:

  • Öppenhet
  • Rättvisa & Rättvisa
  • Icke-ondska
  • Ansvar
  • Integritetspolicy
  • Välgörenhet
  • Frihet & autonomi
  • Litar
  • Hållbarhet
  • Värdighet
  • Solidaritet

Som du direkt kan gissa kan det vara extremt svårt att försöka fastställa detaljerna bakom dessa principer. Ännu mer så är ansträngningen att förvandla dessa breda principer till något helt påtagligt och tillräckligt detaljerat för att användas när man skapar AI-system också en svår nöt att knäcka. Det är lätt att på det hela taget vifta lite om vad AI-etiska föreskrifter är och hur de generellt bör följas, medan det är en mycket mer komplicerad situation när AI-kodningen måste vara det veritabla gummit som möter vägen.

AI-etiska principer ska användas av AI-utvecklare, tillsammans med de som hanterar AI-utvecklingsinsatser, och även de som i slutändan arbetar med och utför underhåll av AI-system. Alla intressenter under hela AI-livscykeln för utveckling och användning anses vara inom ramen för att följa de etablerade normerna för etisk AI. Detta är en viktig höjdpunkt eftersom det vanliga antagandet är att "endast kodare" eller de som programmerar AI:n är föremål för att följa AI-etikbegreppet. Var medveten om att det krävs en by för att utveckla och sätta in AI. För vilket hela byn måste hålla sig på tårna om AI-etik.

Hur som helst, nu när jag har kommit in på bordet att AI kan innehålla fördomar, kan vi kanske alla hålla med om dessa två uppenbara fakta:

1. Människor kan ha många ogynnsamma fördomar och kan agera på dem

2. AI kan ha många ogynnsamma fördomar och kan agera på dessa fördomar

Jag är något avsky för att stapla människor kontra AI i det sammanhanget eftersom det på något sätt kan antyda att AI har kännande kapacitet i paritet med människor. Så är det säkerligen inte. Jag kommer tillfälligt att återkomma till de växande farhågorna kring antropomorfisering av AI lite senare i denna diskussion.

Vad är värre, människor som uppvisar olämpliga fördomar eller AI som gör det?

Jag vågar påstå att frågan ställer ett av de där dyra valen. Det är det ökända mindre av två ont, kan man hävda. Vi skulle önska att människor inte förkroppsligade ogynnsamma fördomar. Vi skulle vidare önska att även om människor har ogynnsamma fördomar så kommer de inte att agera på dessa fördomar. Detsamma kan lämpligen sägas om AI. Vi skulle önska att AI inte inbäddade ogynnsamma fördomar och att även om det finns sådana internt kodade fördomar att AI åtminstone inte skulle agera på dem.

Önskemål styr dock inte nödvändigtvis världen (för min analys av den stigande och oroande sken av s.k. AI Önskeuppfyllelse av samhället i stort, se länken här).

Okej, vi vill uppenbarligen att människor ska känna till sina begränsningar. Det är viktigt att inse när du har ogynnsamma fördomar. Det är lika viktigt att försöka förhindra dessa ogynnsamma fördomar från att ingjutas i dina handlingar och beslut. Företag i dag försöker alla typer av metoder för att hindra sina anställda från att hamna i de otrevliga fördomar som faller ner. Specialiserad utbildning ges till anställda om hur de ska utföra sitt arbete på etiskt sunda sätt. Processer utformas kring anställda för att varna dem när de verkar uppvisa oetiska seder. Och så vidare.

Ett annat sätt att hantera människor och deras ogynnsamma fördomar skulle vara att automatisera mänskligt baserat arbete. Ja, helt enkelt ta bort människan från slingan. Tillåt inte en människa att utföra en beslutsfattande uppgift och du har antagligen inte längre några kvardröjande bekymmer om den mänskliga bäringen mot några ogynnsamma fördomar. Det finns inte en människa inblandad och därmed verkar problemet med potentiella mänskliga fördomar vara löst.

Jag tar upp detta eftersom vi bevittnar en gradvis och massiv förändring mot att använda AI på ett algoritmbeslutssätt (ADM). Om du kan ersätta en mänsklig arbetare med AI är oddsen att många fördelar kommer att uppstå. Som redan nämnts skulle du inte längre oroa dig över den mänskliga arbetarens mänskliga fördomar (den som inte längre gör det jobbet). Chansen är stor att AI kommer att bli billigare totalt sett jämfört med en långsiktig tidshorisont. Du avstår från alla andra olika svårigheter som följer med mänskliga arbetare. Etc.

Ett förslag som vinner mark verkar vara detta: När du försöker bestämma var AI bäst ska placeras, titta först på inställningar som redan innebär negativa mänskliga fördomar från dina anställda och för vilka dessa fördomar underskrider eller på annat sätt överdrivet komplicerar specifika beslutsfattande uppgifter.

Sammanfattningsvis är det att det verkar klokt att få mest valuta för pengarna när det gäller att investera i AI genom att sikta rakt ut på mycket exponerade mänskliga beslutsfattande uppgifter som är svåra att kontrollera från ett ogynnsamt infusionsperspektiv. Ta bort de mänskliga arbetarna i den rollen. Ersätt dem med AI. Antagandet är att AI inte skulle ha sådana ogynnsamma fördomar. Därför kan du få din kaka och äta den också, nämligen få beslutsuppgifterna påtagna och göra det minus det etiska och juridiska spöket av ogynnsamma fördomar.

När du ritar ut det, skulle ROI (avkastning på investering) sannolikt göra införandet av AI till ett enkelt val.

Så här brukar det se ut.

Titta genom hela ditt företag och försök identifiera beslutsfattande uppgifter som påverkar kunderna. Vilka av dessa uppgifter är mest sannolikt att påverkas på ett olämpligt sätt om arbetarna förkroppsligar ogynnsamma fördomar? Om du redan har försökt tygla dessa fördomar kanske du låter saker och ting stå som de är. Å andra sidan, om fördomarna fortsätter att dyka upp igen och ansträngningen att eliminera dem är betungande, överväg att släppa någon relevant AI i den rollen. Håll inte arbetarna i mixen eftersom de kan åsidosätta AI:n eller trycka AI:n rakt tillbaka in i avgrunden i den olämpliga avgrunden. Se också till att AI:n kan utföra uppgiften skickligt och att du tillräckligt har fångat de beslutsfattande aspekterna som krävs för att utföra jobbet.

Skölj och upprepa.

Jag inser att det verkar vara en okomplicerad uppfattning, men inser att det finns många sätt att ersätta mänskliga arbetare med AI lätt kan gå snett. Många företag var ivriga att vidta sådana åtgärder och övervägde inte medvetet hur de skulle göra det. Som ett resultat gjorde de ofta en mycket värre röra än de hade på handen till att börja med.

Jag vill förtydliga och accentuera att AI inte är ett universalmedel.

På tal om det, det finns ett stort problem med renligheten i att till synes slänga ut de mänskligt partiska beslutsfattare med den påstås opartiska AI. Problemet är att du kanske bara ersätter en uppsättning ogynnsamma fördomar med en annan. Enligt den tidigare indikationen kan AI innehålla ogynnsamma fördomar och kan agera på dessa fördomar. Att göra ett fräckt antagande om att byta ut partiska människor mot opartisk AI inte är allt som det ska vara.

Kort sagt, här är affären när man tittar på saken strikt utifrån biasfaktorerna:

  • AI har inga ogynnsamma fördomar och därför är den AI-baserade ADM behändig att distribuera
  • AI:n har samma ogynnsamma fördomar som de människor som ersätts, och därför är den AI-baserade ADM bekymmersam
  • AI introducerar nya ogynnsamma fördomar utöver de för de människor som ersatts och kommer sannolikt att förvärra saker i enlighet därmed
  • AI:n verkar till en början bra och vinglar sedan gradvis in i otäcka fördomar
  • Övriga

Vi kan kortfattat packa upp dessa möjligheter.

Den första är den idealiserade versionen av vad som kan hända. AI har inga ogynnsamma fördomar. Du sätter AI på plats och den gör jobbet utmärkt. Bra för dig! Naturligtvis skulle man hoppas att du också på något skickligt sätt har hanterat förflyttningen av mänskliga arbetare på grund av AI-inkluderingen.

I det andra fallet sätter du in AI:n och upptäcker att AI:n uppvisar samma ogynnsamma fördomar som de mänskliga arbetarna hade. Hur kan det vara såhär? Ett vanligt sätt att falla i denna fälla är att använda Machine Learning (ML) och Deep Learning (DL) baserat på insamlad data om hur människorna i rollen tidigare fattade sina beslut.

Tillåt mig ett ögonblick att förklara.

ML/DL är en form av beräkningsmönstermatchning. Det vanliga tillvägagångssättet är att man samlar ihop data om en beslutsuppgift. Du matar in data i ML/DL-datormodellerna. Dessa modeller försöker hitta matematiska mönster. Efter att ha hittat sådana mönster, om så hittas, kommer AI-systemet att använda dessa mönster när det möter ny data. Vid presentationen av nya data tillämpas mönstren baserade på "gamla" eller historiska data för att göra ett aktuellt beslut.

Jag tror att ni kan gissa vart detta är på väg. Om människorna som har gjort arbetet i år efter år har införlivat ogynnsamma fördomar, är oddsen att data speglar detta på subtila men betydelsefulla sätt. Matchningen av beräkningsmönster för maskininlärning eller djupinlärning kommer helt enkelt att försöka matematiskt efterlikna data i enlighet därmed. Det finns inget sken av sunt förnuft eller andra kännande aspekter av modelleringen i sig.

Dessutom kanske AI-utvecklarna inte inser vad som händer heller. Den mystiska matematiken kan göra det svårt att ta bort de nu dolda fördomarna. Du skulle med rätta hoppas och förvänta dig att AI-utvecklarna skulle testa för de potentiellt begravda fördomarna, även om detta är svårare än det kan verka. Det finns en stor chans att det även med relativt omfattande tester kommer att finnas fördomar inbäddade i mönstermatchningsmodellerna för ML/DL.

Allt som allt kan du hamna tillbaka på ruta ett. Samma ogynnsamma fördomar hos människor återspeglas nu beräkningsmässigt i AI-systemet. Du har inte utrotat fördomarna.

Ännu värre, du kanske är mindre benägen att inse att AI har fördomar. När det gäller människor kan du normalt vara på din vakt över att människor har otrevliga fördomar. Detta är en basförväntning. Användningen av AI kan invagga ledare till att tro att automatisering helt har tagit bort all form av mänsklig fördom. De ställer sig alltså upp för att ha skjutit sig själva i foten. De gjorde sig av med människor med till synes kända ogynnsamma fördomar, och ersattes av AI som man trodde inte hade några sådana fördomar, och ändå har de nu tagit i bruk AI fylld av samma fördomar som redan är kända för att existera.

Detta kan få saker och ting att bli riktigt korsade. Du kanske har tagit bort andra skyddsräcken som används med de mänskliga arbetarna som etablerades för att upptäcka och förhindra uppkomsten av de redan förväntade mänskliga fördomarna. AI:n har nu fritt spelrum. Inget är på plats för att fånga det innan du agerar. AI:n kan då börja leda dig på en grym väg av den enorma ansamlingen av partiska handlingar.

Och du är i den besvärliga och kanske ansvarsfulla ställning som du en gång visste om fördomarna och nu har låtit dessa fördomar orsaka förödelse. Det är kanske en sak att aldrig ha stött på sådana olämpliga fördomar och sedan plötsligt ur det blå får AIn dem. Du kan försöka ursäkta detta med "vem skulle ha gissat" typ av distraktor (inte särskilt övertygande, kanske). Men att nu ha ställt in AI som gör samma opartiska handlingar som tidigare, ja, dina ursäkter blir allt tunnare.

En twist på detta innebär att AI uppvisar ogynnsamma fördomar som inte tidigare hade stött på när människorna gjorde uppgiften. Man kan säga att detta kanske är svårare att förhindra eftersom det består av "nya" fördomar som företaget inte tidigare varit på jakt efter. Men i slutändan kanske ursäkter inte ger dig mycket lättnad. Om AI-systemet har vågat sig in på både oetiskt och olagligt territorium kan din gås vara kokt.

En annan aspekt att ha i åtanke är att AI kan börja bra och sedan gå in i olämpliga fördomar. Detta är särskilt troligt när användningen av Machine Learning eller Deep Learning sker kontinuerligt för att hålla AI uppdaterad. Oavsett om ML/DL arbetar i realtid eller regelbundet gör uppdateringar, bör uppmärksamheten vara om AI:n möjligen tar in data som nu innehåller fördomar och som tidigare inte fanns.

För ledare som tror att de får en gratis lunch genom att vifta med ett trollspö för att ersätta partiska mänskliga arbetare med AI, kommer de att få ett mycket oförskämt uppvaknande. Se min diskussion om vikten av att bemyndiga ledare med föreskrifterna för AI-etik på länken här.

Vid denna tidpunkt av denna diskussion skulle jag slå vad om att du är sugen på några verkliga exempel som kan visa upp gåtan med att ersätta (eller inte) mänskliga ogynnsamma fördomar med AI-baserade ogynnsamma fördomar.

Jag är glad att du frågade.

Det finns en speciell och säkerligen populär uppsättning exempel som ligger mig varmt om hjärtat. Du förstår, i min egenskap av expert på AI inklusive de etiska och juridiska konsekvenserna, blir jag ofta ombedd att identifiera realistiska exempel som visar upp AI-etiska dilemman så att ämnets något teoretiska natur kan lättare förstås. Ett av de mest suggestiva områdena som på ett levande sätt presenterar detta etiska AI-problem är tillkomsten av AI-baserade äkta självkörande bilar. Detta kommer att fungera som ett praktiskt användningsfall eller exempel för omfattande diskussioner om ämnet.

Här är en anmärkningsvärd fråga som är värd att överväga: Belyser tillkomsten av AI-baserade äkta självkörande bilar något om ogynnsamma fördomar i AI, och i så fall, vad visar detta upp?

Tillåt mig en stund att packa upp frågan.

Observera först att det inte finns en mänsklig förare inblandad i en äkta självkörande bil. Tänk på att äkta självkörande bilar körs via ett AI-körsystem. Det finns inte ett behov av en mänsklig förare vid ratten, och det finns inte heller en bestämmelse för en människa att köra fordonet. För min omfattande och pågående bevakning av Autonomous Vehicles (AV) och speciellt självkörande bilar, se länken här.

Jag vill ytterligare klargöra vad som menas när jag hänvisar till riktiga självkörande bilar.

Förstå nivåerna av självkörande bilar

Som ett förtydligande är sanna självkörande bilar sådana som AI kör bilen helt på egen hand och det finns ingen mänsklig hjälp under köruppgiften.

Dessa förarlösa fordon betraktas som nivå 4 och nivå 5 (se min förklaring på denna länk här), medan en bil som kräver en mänsklig förare för att dela köransträngningen vanligtvis anses vara på nivå 2 eller nivå 3. De bilar som delar på köruppgiften beskrivs som halvautonoma och innehåller vanligtvis en mängd olika automatiserade tillägg som kallas ADAS (Advanced Driver-Assistance Systems).

Det finns ännu inte en riktig självkörande bil på nivå 5, som vi ännu inte vet om det är möjligt att uppnå och inte heller hur lång tid det kommer att ta sig dit.

Under tiden försöker nivå 4-ansträngningarna gradvis få lite dragkraft genom att genomgå mycket smala och selektiva offentliga vägförsök, även om det finns kontroverser om huruvida denna testning ska vara tillåten i sig (vi är alla liv-eller-död-marsvin i ett experiment. som äger rum på våra motorvägar och motorvägar, menar vissa, se min täckning på denna länk här).

Eftersom semi-autonoma bilar kräver en mänsklig förare, kommer antagandet av dessa typer av bilar inte att vara märkbart annorlunda än att köra konventionella fordon, så det finns inte mycket nytt i sig att täcka om dem om detta ämne (men som du kommer att se på ett ögonblick är de punkter som nästa görs generellt tillämpliga)

För semi-autonoma bilar är det viktigt att allmänheten måste varnas om en oroande aspekt som har uppstått på sistone, nämligen att trots de mänskliga förarna som fortsätter att lägga upp videor om sig själva somna vid ratten i en nivå 2 eller nivå 3 bil , vi måste alla undvika att bli vilseledda till att tro att föraren kan ta bort sin uppmärksamhet från köruppgiften medan han kör en semi-autonom bil.

Du är den ansvariga parten för fordonets körning, oavsett hur mycket automatisering som kan kastas till nivå 2 eller nivå 3.

Självkörande bilar och AI med olämpliga fördomar

För nivå 4 och 5 verkliga självkörande fordon finns det ingen mänsklig förare som är involverad i köruppgiften.

Alla passagerare kommer att vara passagerare.

AI kör körningen.

En aspekt att omedelbart diskutera innebär det faktum att AI involverad i dagens AI-körsystem inte är känslig. Med andra ord är AI helt och hållet en kollektiv datorbaserad programmering och algoritmer, och kan med säkerhet inte resonera på samma sätt som människor kan.

Varför är denna extra tonvikt om att AI inte är känslig?

Eftersom jag vill understryka att när jag diskuterar AI-drivsystemets roll tillskriver jag inte mänskliga egenskaper till AI. Tänk på att det idag finns en pågående och farlig tendens att antropomorfisera AI. I grund och botten tilldelar människor mänsklig känsla till dagens AI, trots det obestridliga och obestridliga faktum att ingen sådan AI finns än.

Med det förtydligandet kan du föreställa dig att AI-körsystemet inte på något sätt "vet" om körningens aspekter. Körning och allt det innebär kommer att behöva programmeras som en del av hårdvaran och mjukvaran i den självkörande bilen.

Låt oss dyka in i den myriad av aspekter som kommer att spela om detta ämne.

För det första är det viktigt att inse att inte alla AI självkörande bilar är likadana. Varje biltillverkare och självkörande teknikföretag tar sitt tillvägagångssätt för att utforma självkörande bilar. Som sådan är det svårt att göra svepande uttalanden om vad AI-körsystem kommer att göra eller inte.

Dessutom, närhelst man säger att ett AI-körsystem inte gör någon speciell sak, kan detta senare övertas av utvecklare som faktiskt programmerar datorn att göra just det. Steg för steg förbättras och utökas AI-körsystemen gradvis. En befintlig begränsning idag kanske inte längre existerar i en framtida iteration eller version av systemet.

Jag litar på att det ger en tillräcklig litania av varningar för att ligga till grund för det jag ska berätta.

Vi är redo att göra en djupdykning i självkörande bilar och de etiska AI-möjligheterna som innebär utforskning av AI och olämpliga fördomar.

Låt oss använda ett enkelt exempel. En AI-baserad självkörande bil är på gång på dina grannskapsgator och verkar köra säkert. Till en början hade du ägnat särskild uppmärksamhet åt varje gång du lyckades få en skymt av den självkörande bilen. Det autonoma fordonet stack ut med sitt rack av elektroniska sensorer som inkluderade videokameror, radarenheter, LIDAR-enheter och liknande. Efter många veckor av den självkörande bilen som kryssar runt i ditt samhälle, märker du nu knappt det. För dig är det bara en annan bil på de redan trafikerade allmänna vägarna.

För att du inte tror att det är omöjligt eller osannolikt att bli bekant med att se självkörande bilar, jag har ofta skrivit om hur lokalerna som ligger inom ramen för självkörande bilprover gradvis har vant sig vid att se de piffade fordonen, se min analys på denna länk här. Många av lokalbefolkningen gick så småningom från mungapande hänförd blick till att nu avge en expansiv gäspning av tristess för att bevittna de slingrande självkörande bilarna.

Förmodligen är den främsta anledningen just nu till att de kan lägga märke till de autonoma fordonen på grund av irritations- och irritationsfaktorn. De bokförda AI-körsystemen ser till att bilarna följer alla hastighetsgränser och trafikregler. För hektiska mänskliga förare i sina traditionella människodrivna bilar blir man irriterad ibland när man sitter fast bakom de strikt laglydiga AI-baserade självkörande bilarna.

Det är något vi alla kan behöva vänja oss vid, med rätta eller fel.

Tillbaka till vår berättelse.

Det visar sig att två olämpliga farhågor börjar dyka upp om de annars ofarliga och allmänt välkomnade AI-baserade självkörande bilarna, specifikt:

a. Där AI:n strövar omkring i de självkörande bilarna för att hämta turer har blivit ett oroande problem i samhället i stort

b. Hur AI behandlar väntande fotgängare som inte har företrädesrätt är också ett växande problem

Till en början strövade AI mellan de självkörande bilarna i hela staden. Alla som ville begära en åktur i den självkörande bilen hade i princip lika stor chans att ta emot en. Gradvis började AI i första hand hålla de självkörande bilarna i roaming i bara en del av staden. Den här sektionen tjänade större pengar och AI-systemet hade programmerats för att försöka maximera intäkterna som en del av användningen i samhället.

Samhällsmedlemmar i de fattiga delarna av staden var mindre benägna att få skjuts från en självkörande bil. Detta berodde på att de självkörande bilarna var längre bort och strövade i den högre inkomstdelen av orten. När en förfrågan kom in från en avlägsen del av staden, skulle varje förfrågan från en närmare plats som sannolikt var i den "aktade" delen av staden få högre prioritet. Så småningom var det nästan omöjligt att få en självkörande bil på något annat ställe än i den rikare delen av staden, irriterande så för dem som bodde i dessa nu resurssnåla områden.

Du kan hävda att AI i stort sett landade på en form av proxy-diskriminering (även ofta kallad indirekt diskriminering). AI:n var inte programmerad för att undvika dessa fattigare stadsdelar. Istället "lärde den sig" att göra det genom att använda ML/DL.

Saken är den att mänskliga förare som delar åk var kända för att göra samma sak, men inte nödvändigtvis uteslutande på grund av vinklingen att tjäna pengar. Det var några av de mänskliga chaufförerna som delades ut som hade en olämplig partiskhet när det gällde att plocka upp ryttare i vissa delar av staden. Detta var ett något känt fenomen och staden hade infört en övervakningsmetod för att fånga mänskliga förare som gör detta. Mänskliga förare kan hamna i trubbel för att utföra ogynnsamma urvalsmetoder.

Det antogs att AI:n aldrig skulle hamna i samma typ av kvicksand. Ingen specialiserad övervakning sattes upp för att hålla reda på vart de AI-baserade självkörande bilarna tog vägen. Först efter att medlemmarna i samhället började klaga insåg stadens ledare vad som hände. För mer om dessa typer av stadsövergripande frågor som autonoma fordon och självkörande bilar kommer att presentera, se min bevakning på denna länk här och som beskriver en Harvard-ledd studie som jag var medförfattare till i ämnet.

Det här exemplet på roaming-aspekterna hos de AI-baserade självkörande bilarna illustrerar den tidigare indikationen på att det kan finnas situationer som involverar människor med oförutsedda fördomar, för vilka kontroller sätts på plats, och att AI:n som ersätter dessa mänskliga förare lämnas skotsk- fri. Tyvärr kan AI sedan stegvis fastna i liknande fördomar och göra det utan tillräckligt med skyddsräcken på plats.

Ett andra exempel involverar AI som avgör om den ska stanna för väntande fotgängare som inte har företrädesrätt att korsa en gata.

Du har utan tvekan kört bil och stött på fotgängare som väntade på att korsa gatan och ändå hade de inte företrädesrätt att göra det. Detta innebar att du hade möjlighet att bestämma om du skulle stanna och låta dem gå över. Du kan fortsätta utan att låta dem passera och fortfarande vara helt inom de lagliga körreglerna för att göra det.

Studier av hur mänskliga förare bestämmer sig för att stanna eller inte stanna för sådana fotgängare har antytt att de mänskliga förarna ibland gör valet baserat på ogynnsamma fördomar. En mänsklig förare kan titta på fotgängaren och välja att inte stanna, även om de skulle ha stannat om fotgängaren hade ett annat utseende, till exempel baserat på ras eller kön. Jag har undersökt detta kl länken här.

Föreställ dig att de AI-baserade självkörande bilarna är programmerade att hantera frågan om de ska stanna eller inte stanna för fotgängare som inte har företrädesrätt. Så här bestämde sig AI-utvecklarna för att programmera den här uppgiften. De samlade in data från stadens videokameror som är placerade runt om i staden. Data visar upp mänskliga förare som stannar för fotgängare som inte har företrädesrätt och mänskliga förare som inte stannar. Allt är samlat i en stor datamängd.

Genom att använda Machine Learning och Deep Learning modelleras data beräkningsmässigt. AI-körsystemet använder sedan denna modell för att bestämma när det ska stanna eller inte stanna. Generellt sett är tanken att oavsett vad den lokala seden består av så är det så AI:n kommer att styra den självkörande bilen.

Till stadsledarnas och invånarnas förvåning valde AI uppenbarligen att stoppa eller inte sluta baserat på fotgängarens utseende, inklusive deras ras och kön. Sensorerna i den självkörande bilen skulle skanna den väntande fotgängaren, mata in dessa data till ML/DL-modellen och modellen skulle avge till AI om den skulle stanna eller fortsätta. Beklagligt nog hade staden redan många mänskliga fördomar i detta avseende och AI härmade nu samma sak.

Den goda nyheten är att detta väcker en fråga som nästan ingen tidigare visste fanns. Den dåliga nyheten var att eftersom AI:n ertappades med att göra detta, fick den största delen av skulden. Det här exemplet illustrerar att ett AI-system bara kan duplicera de redan existerande ogynnsamma fördomarna hos människor.

Slutsats

Det finns en mängd olika sätt att försöka undvika att skapa AI som antingen utanför porten har ogynnsamma fördomar eller som över tid samlar på sig fördomar. Ett tillvägagångssätt innebär att se till att AI-utvecklare är medvetna om att detta händer och därmed hålla dem på tårna för att programmera AI:n för att avvärja saken. En annan väg består av att låta AI själv övervaka sig själv för oetiska beteenden (se min diskussion på länken här) och/eller ha en annan del av AI som övervakar andra AI-system för potentiellt oetiska beteenden (jag har tagit upp detta på länken här).

För att sammanfatta måste vi inse att människor kan ha olämpliga fördomar och att de på något sätt behöver känna till sina begränsningar. På samma sätt kan AI ha ogynnsamma fördomar, och på något sätt måste vi känna till deras begränsningar.

För er som ivrig anammar AI-etik, skulle jag vilja avsluta med en annan berömd linje som alla redan måste känna till. Nämligen, fortsätt att använda och dela vikten av etisk AI. Och genom att göra det skulle jag fräckt säga detta: "Sätt igång, gör min dag."

Källa: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/