AI-etik Att noggrant bedöma om det är klokt eller meningslöst att erbjuda AI-fördomar Jaktpremier för att fånga och nappa etiskt ondskefulla helt autonoma system

Efterlyst: AI bias jägare.

Det kan vara en modern annons som du kommer att börja se dyka upp på sociala mediekanaler och dyka upp i olika jobbannonser online. Detta är ett relativt nytt koncept eller roll. Det för med sig kontroverser. Vissa ivriga troende hävdar innerligt att det är mycket meningsfullt och borde ha hänt hela tiden, medan andra ganska nervöst gör några allvarliga huvuden och inte så säkra på att detta är en bra idé.

Kontentan av rollen består i att ta bort alla dolda fördomar eller inbäddade diskriminerande metoder från AI. Till undsättning kommer de ivriga och helt och hållet dåvarande AI:s fördomar mot jägare. De skulle förmodligen vara datorkunniga prisjägare. Mer så, förhoppningsvis, genomsyrad av djupet av AI-kapacitet.

Har ett vapen, kommer att resa och kan via AI-skicklig skarp skytteskicklighet lyckas avslöja dessa obehagliga och ogynnsamma AI-fördomar.

Detta väcker en mängd svåra frågor om känsligheten i att utöva en sådan taktik när det gäller att upptäcka AI-fördomar. Som jag kommer att diskutera ett ögonblick, vänligen vet att tillkomsten av AI också har fört med sig framväxten av AI-fördomar. En ström av AI-fördomar. För min pågående och omfattande bevakning av AI-etik och etisk AI, se länken här och länken här, bara för att nämna några.

Hur ska vi upptäcka att ett visst AI-system har fördomar?

Du kan anförtro AI-utvecklarna som skapade AI:n att göra det. Saken är den att de kan vara så insjunkna i fördomar att de själva inte kan känna igen fördomarna i deras sammansatta AI. Allt ser bra ut för dem. Eller så kanske de är så exalterade över AI:n och har en känsla av självstolthet över den att det skulle vara svårt och en verklig nedbrytning att sedan behöva ta ett kritiskt öga för att undersöka det för fördomar. Många andra sådana skäl kan tyckas underskatta att AI-utvecklarna tar på sig denna uppgift, inklusive bristande kompetens för att ta reda på de inbäddade fördomarna, brist på tid i ett projekt för att göra det, etc.

Okej, så fortsätt och anlita externa konsulter för att göra lumpen åt dig, så att säga. Det visar sig att konsulter med glädje kommer att granska din AI för fördomar, och debiterar dig en ganska stor slant för att göra det (massor, massor av slantar). Inse att du måste betala för att de ska komma igång med ditt AI-system. Du måste sedan låta dem rota runt, vilket kan ta ett otalligt antal kostsamma arbetstimmar. Att använda konsulter är ett alternativ om du har budget för det.

In i den potentiella "luckan" för hur man hittar dessa lömska AI-fördomar kommer de heroiska och käcka AI-fördomar prisjägare.

Du brukar inte betala dem i förskott. De försöker hitta AI-fördomarna på sin egen tid och måste stå för sina egna räkningar när de gör det. Endast om de lyckas hitta fördomar får de betalt. Jag antar att du lätt kan hävda att på ett lämpligt sätt att tänka, det är den konventionella definitionen av en prisjägare. Få betalt om du lyckas. Få inte betalt om du inte lyckas. Period, slutet på historien.

Bounty-program har funnits åtminstone sedan romarnas tid och därför kan vi anta att de fungerar, efter att ha hållit ut som en praxis under alla dessa år.

Här är en fascinerande del av historisk trivia för dig. Enligt uppgift förkunnade ett postat meddelande under romarriket i staden Pompeji att prisjägare behövdes för att hitta en kopparkruka som försvann i en liten butik. Belöningen för återvinningen av kopparkrukan var ett imponerande pris på sextiofem bronsmynt. Ledsen att säga att vi inte vet om någon prisjägare hittade kopparkrukan och gjorde anspråk på bronsmynten, men vi vet att prisjakten verkligen har fortsatt sedan de gamla tiderna.

I mer modern tid kanske du är medveten om att det på 1980-talet erbjöds några anmärkningsvärda förmåner för att hitta datorbuggar eller fel i vanliga mjukvarupaket och sedan på 1990-talet erbjöd Netscape markant en pris för att hitta buggar i deras webbläsare (blir ett av de mest framstående företagen på den tiden att göra det). Google och Facebook hade vardera valt prisjakt efter buggar med början 2010 respektive 2013 år. Några år senare, 2016, till och med USA:s försvarsdepartement (DoD) kom in i handlingen genom att ha en "Hack the Pentagon"-premieinsats (observera att den offentligt fokuserade belöningen gällde buggar som hittats på olika DoD-relaterade webbplatser och inte i försvarets uppdragskritiska system).

Låt oss gräva djupare in i ämnet bug-bounty. Jag inser att jag främst syftar till att prata om AI-fördomar i prisjakt i den här diskussionen, men det finns några ganska relevanta paralleller till bug-bounty-arenan.

Vissa är bevisligen förbryllade över att alla företag skulle vilja erbjuda en pris för att hitta buggar (eller, i det här fallet, AI-fördomar) i sina system.

På ytan verkar detta som en strategi av typen "du ber om det". Om du låter världen veta att du välkomnar de som kan försöka hitta hål i din programvara, verkar det vara liktydigt med att säga till inbrottstjuvar att gå vidare och försöka bryta sig in i ditt hus. Även om du redan tror att du har ett ganska bra inbrottslarmsystem och att ingen borde kunna ta sig in i ditt säkrade hem, tänk dig att fråga och verkligen vädja till inbrottstjuvar att alla komma ner till din bostadsort och se om de kan spricka i den. Åh, problemen vi väver för oss själva.

Detsamma kan sägas om att fråga efter prisjägare för att hitta fördomar i din AI.

För det första innebär det kanske att du redan tror eller rent av vet att din AI har fördomar. Det är ett chockerande rakt underförstått erkännande som få verkar vara villiga att göra och som potentiellt kan slå tillbaka.

För det andra, du vet inte säkert vad de där prisjägarna kan göra. De kunde välja att berätta för hela världen att de hittade fördomar i din AI. Man antar att detta kan förlora belöningen, även om vissa kanske uppskattar uppmärksamheten eller siktar på att stärka sin status för att få konsultspelningar och andra inkomstgenererande möjligheter. Det kan kanske vara helt altruistiskt. Det kan vara en form av AI-aktivism. Jag kan fortsätta.

För det tredje kan det finnas en lömsk twist på hela affären. En prisjägare som påstår sig leta efter AI-fördomar kan djävulskt leta runt för att hitta sätt att attackera ditt AI-system. Det hela är en charad för att i slutändan genomföra en allvarlig cyberattack. Du kanske har antagit att de försökte hjälpa, medan de har fel i sina hjärtan. Tråkigt, men möjligt.

För det fjärde kan vi bli ännu mer listiga förvrängda i denna fråga. En prisjägare upptäcker några pinsamma och potentiellt rättegångssporrande AI-fördomar. Prisjägaren är en summa dollar som vi kommer att kalla X. Istället för att ta ut prispengen, gör prisjägaren en sorts udda ransomware-provokation. Om du betalar prisjägaren ett belopp på tio gånger X eller kanske himlens gräns, kommer de att berätta om AI-fördomarna. Du har fram till söndag kväll vid midnatt på dig att svara. Efter den tidpunkten kommer AI-fördomarna att avslöjas för alla att se. Usch, en äcklig situation att hamna i.

För det femte, de senaste är de så kallade "hack to return" cyberskurkarna som efter att ha stulit en massa onlinedegar bestämmer sig för att ångra sig och lämna tillbaka en del av det illa tagna bytet som de tog upp. Företaget som får sina pengar delvis tillbaka är sedan villigt att betrakta det återstående stulna beloppet som en efterhandspeng som belönas till tjuvarna. Det verkar som att alla "vinner" genom att huvuddelen av medlen ges tillbaka och under tiden förföljs cyberskurkarna inte lagligt, plus att de får piratpremien. Är detta försiktigt eller smygande vidmakthållande av felaktiga handlingar?

Jag inser att några av er kanske säger att ingen borde släppa AI som har några fördomar i sig. Det verkar lösa hela detta dilemmat om huruvida man ska använda AI-fördomar prisjägare eller inte. Försätt dig bara inte i en bounty situation. Se till att dina AI-utvecklare gör rätt och tillåt inte AI-fördomar i deras AI-system. Använd kanske konsulter för att göra en dubbelkoll. I grund och botten, gör vad du än behöver göra för att undvika att någonsin tänka på eller be dessa prisjägare för AI-bias att komma till bordet.

Ja, det verkar helt vettigt. Problemet är att det också är lite drömskt. Komplexiteten hos många AI-system är så stor att det kommer att bli svårt att försöka se till att inte ett enda uns av AI-fördomar uppstår. Utöver det är vissa AI-system avsiktligt utformade för att justera och "lära sig" allt eftersom. Detta betyder att vid någon framtida tidpunkt kan den AI som du skapade, som vi först låtsas låtsas vara rent och utan fördomar, dras mot att förkroppsliga fördomar (jag menar inte det på ett antropomorft sätt, som jag kommer att förklara ytterligare när vi gå med i detta ämne).

De som föredrar prisjakt efter programvarubuggar är benägna att hävda att det är vettigt att erbjuda sådana prispengar. Vi kan överväga deras motivering och se om det också gäller AI-fördomar.

Förespråkare av buggpremier betonar att istället för att försöka låtsas som att det inte finns några hål i ditt system, varför inte uppmuntra hål att hittas genom att göra det på ett "kontrollerat" sätt? Däremot, utan en sådan bounty-insats, kan du bara hoppas och be att ingen av en slump kommer att hitta ett hål, men om du istället erbjuder en prispeng och säger till de som hittar ett hål att de kommer att belönas, erbjuder det en chans att sedan landa upp hålet på egen hand och sedan hindra andra från att i hemlighet hitta det vid någon senare tidpunkt.

Detsamma kan sägas i användningsfallet med AI-bias. Om du erbjuder en tillräcklig pris, förhoppningsvis kommer prisjägarna att uppmärksamma dig på upptäckten av AI-fördomar. Du kan då hantera AI-fördomarna på ett relativt tyst och mätt sätt. Detta kan förebygga ett mycket större och mer skrämmande problem senare, nämligen att någon annan hittar AI-fördomar i din AI och skriker om det till den höga himlen.

I allmänhet kommer ett företag som vill möjliggöra prisjakt på buggar att införa en vulnerability Disclosure Policy (VDP). VDP anger hur buggarna ska hittas och rapporteras till företaget, tillsammans med hur belöningen eller dusören kommer att ges till jägaren. Vanligtvis kommer VDP att kräva att jägaren undertecknar ett sekretessavtal (NDA) så att de inte kommer att avslöja för andra vad de hittade.

Uppfattningen att använda en NDA med prisjägare har en del kontroverser. Även om det kanske är vettigt för företaget som erbjuder förmånen att vilja behålla mamma de exponeringar som hittas, sägs det också kväva den övergripande medvetenheten om sådana buggar. Förmodligen, om programvarubuggar tillåts talas om, skulle det potentiellt underlätta säkerheten för andra system hos andra företag som sedan skulle stärka deras exponeringar. Vissa prisjägare kommer inte att underteckna en NDA, delvis på grund av allmänhetens önskan och delvis på grund av att de försöker hålla sin egen identitet dold. Tänk också på att NDA-aspekten vanligtvis inte uppstår förrän efter att jägaren hävdar att de har hittat en bugg, snarare än att kräva det i förväg.

Vissa VDP:er stipulerar att NDA endast gäller för en begränsad tidsperiod, vilket gör det möjligt för företaget att först hitta en lösning på det uppenbara hålet och sedan efteråt för att möjliggöra bredare avslöjande om det. När hålet har täppts till tillåter företaget en uppluckring av NDA så att resten av världen kan veta om felet. Den typiska tiden till upplösning för prisjagda buggar är enligt uppgift cirka 15-20 dagar när ett företag vill koppla in det direkt, medan det i andra fall kan sträcka sig till 60-80 dagar. När det gäller att betala prisjägaren, den så kallade time-to-pay, efter att hålet har verifierats som faktiskt existerande, brukar prisutbetalningarna enligt uppgift vara inom cirka 15-20 dagar för de mindre instanserna och runt 50-60 dagar för de större instanserna (dessa är ständigt föränderliga branschindikationer och nämns endast som illustrativa).

Bör AI-fördomar prisjägare också uppmanas att delta i en VDP och ta itu med en NDA?

Du kan få ett ja och ett nej på den frågan. Ja, vissa företag borde gå den vägen. Nej, du kanske inte nödvändigtvis väljer att gå den vägen. Faktorer inkluderar storleken och arten av AI, potentialen för eventuella AI-fördomsexponeringar som är involverade och en massa andra etiska, juridiska och affärsmässiga överväganden som kommer att bära.

Jag kan tillägga att det är en mycket högre ordning att etablera en prisjaktsträvan för AI-fördomar hos din AI än du kan anta vid en första anblick.

Vi börjar med den oerhörda möjligheten att du kommer att bli överväldigad av AI-fördomar prisjägare.

Just nu skulle du få svårt att hitta många som skulle ha ett sådant telefonkort. Det finns inte många runt omkring. Det är vilda västerns dagar i det avseendet. Men om föreställningen om AI-fördomar i prisjakt slår fast, särskilt när prispengarna är rikliga och rikt givande, kan du satsa på att alla kommer att dyka ner i poolen för fördomsjakt.

Vill du ha alla sorters riffraff som driver AI-fördomar i ditt AI-system? Du kommer att få några personer som faktiskt är experter på sånt här. Du kommer att få andra som är amatörer och som kan göra en enda röra eller gråta varg. Nästa sak du vet, alla som kan stava till "Artificiell intelligens" kommer att gräva i din guldgruva av ett AI-system efter dessa värdefulla AI-fördomar-guldkorn. Guldrushen är igång. Det kanske inte är bra för dig.

Du kommer att behöva granska prisjägarens bidrag. Det kommer att finnas mycket "brus" i de rapporterade påståendena, i den meningen att många av de påstådda AI-fördomarna inte existerar, även om prisjägaren insisterar på att de hittade några. Föreställ dig hur mycket arbete dina egna AI-team kommer att kräva för att undersöka prisanspråken, utforska giltigheten av var och en och sedan eventuellt gå fram och tillbaka med prisjägaren om huruvida guld upptäcktes eller inte.

Vissa skulle hävda att det är ytterligare en anledning att göra det hela själv. Du kanske oundvikligen upptäcker att bounty-grejen är mer problem än det var värt.

Här är en annan fråga att fundera över. Hur kommer prisjägarna att veta hur en AI-bias ser ut? I grund och botten, utan någon antydan om vad man ska leta efter, kan vilken glänsande sten som helst hävdas visa upp en AI-bias i den uppfattade AI-guldgruvan som grävs ut.

I Gamla Västerns dagar, anta att du erbjöd en belöning för tillfångatagandet av Billy the Kid (en berömd fredlös). Om du gjorde det och inte inkluderade en bild på hur Billy såg ut, föreställ dig hur många prisjägare som kan dra in någon som de hoppades eller trodde var Billy the Kid till sheriffens kontor. Du kan bli översvämmad av falska Billy's. Detta är dåligt eftersom du förmodligen skulle behöva titta på var och en, ställa undersökande frågor och försöka fastställa om personen verkligen var Billy eller inte.

Poängen är att för att ställa in AI-bias bounty-insatsen skulle du göra klokt i att försöka klargöra vad du anser att AI-bias består av. Detta kräver en Goldilocks typ av kalibrering. Du vill inte vara så inskränkande att prisjägarna förbiser AI-fördomar bara för att de inte passar in i din angivna definition, och du vill inte heller att de ska skrika "Eureka!" vid varje bit av en AI-bias som de kanske hittar.

Du behöver precis den rätta Goldilocks-balansen av vad AI-fördomar består av och ger därför helst explicita anvisningar därav.

Mycket av denna AI-fördomar kommer att fokusera på AI-baserade maskininlärnings- (ML) och Deep Learning-system (DL). Detta är vettigt eftersom tillkomsten av ML/DL-genomträngning växer, plus det verkar ha några av de mest sannolika utmaningarna med att omfatta onödiga AI-fördomar.

Dessa forskare identifierar hur framträdande en AI-fördomar prisjaktinsats kan vara, särskilt i ML/DL-sammanhang: "Med tiden har mjukvaru- och säkerhetsgemenskaperna utvecklat "bug bounties" i ett försök att vända liknande dynamik mellan systemutvecklare och deras kritiker (eller hackare) mot mer interaktiva och produktiva mål. Förhoppningen är att genom att medvetet bjuda in externa parter att hitta mjukvaru- eller hårdvarubuggar i sina system, och ofta ge monetära incitament för att göra det, kommer ett hälsosammare och snabbare reagerande ekosystem att utvecklas. Det är naturligt för ML-gemenskapen att överväga en liknande "bias bounty"-metod för att snabbt upptäcka och reparera modeller och system med fördomar eller andra oönskade beteenden. Istället för att hitta buggar i programvara uppmanas externa parter att hitta fördomar – till exempel (demografiska eller andra) undergrupper av indata där en utbildad modell underpresterar – och belönas för att göra det” (i artikeln ”An Algorithmic Framework for Bias” Bounties” av Ira Globus-Harris, Michael Kearns och Aaron Roth).

I forskningsartikeln skisserar författarna ett förslag till strategi för vilka typer av AI-fördomar som prisjägare kan söka efter. Det finns också en indikation om hur man bedömer prisjägarens anspråk som är associerade med de påstådda AI-fördomar som så upptäckts. Enligt mina tidigare kommentarer här, är oddsen att du kommer att få märkliga anspråk och måste skilja AI-fördomarna vete från agnarna.

Innan vi går in på lite mer kött och potatis om de vilda och ulliga överväganden som ligger bakom AI-biasjakt, låt oss fastställa några ytterligare grunder om djupt integrerade ämnen. Vi behöver en kort dykning i AI-etiken och särskilt tillkomsten av Machine Learning (ML) och Deep Learning (DL).

Du kanske är vagt medveten om att en av de mest högljudda rösterna nuförtiden inom AI-området och även utanför AI-området består av att ropa efter en större sken av etisk AI. Låt oss ta en titt på vad det innebär att referera till AI-etik och etisk AI. Utöver det kommer vi att utforska vad jag menar när jag talar om maskininlärning och djupinlärning.

Ett särskilt segment eller del av AI-etiken som har fått mycket uppmärksamhet i media består av AI som uppvisar ogynnsamma fördomar och orättvisor. Du kanske är medveten om att när den senaste eran av AI började var det en enorm explosion av entusiasm för det som vissa nu kallar AI For Good. Tyvärr, i hälarna av den strömmande spänningen, började vi bevittna AI för dåligt. Till exempel har olika AI-baserade ansiktsigenkänningssystem avslöjats innehålla rasfördomar och genusfördomar, vilket jag har diskuterat på länken här.

Ansträngningar att slå tillbaka mot AI för dåligt pågår aktivt. Förutom högljudd laglig i strävan efter att tygla missförhållandena, finns det också en rejäl strävan mot att omfamna AI-etiken för att rätta till AI-elakheten. Tanken är att vi bör anta och godkänna viktiga etiska AI-principer för utveckling och fält av AI för att underskrida AI för dåligt och samtidigt förebåda och främja det föredragna AI For Good.

På ett relaterat begrepp är jag en förespråkare av att försöka använda AI som en del av lösningen på AI-problem, bekämpa eld med eld på det sättet att tänka. Vi kan till exempel bädda in etiska AI-komponenter i ett AI-system som kommer att övervaka hur resten av AI:n gör saker och därmed potentiellt fånga upp i realtid eventuella diskriminerande ansträngningar, se min diskussion på länken här. Vi skulle också kunna ha ett separat AI-system som fungerar som en typ av AI-etikmonitor. AI-systemet fungerar som en övervakare för att spåra och upptäcka när en annan AI går in i den oetiska avgrunden (se min analys av sådana förmågor på länken här).

Om ett ögonblick ska jag dela med dig av några övergripande principer som ligger till grund för AI-etiken. Det finns massor av den här typen av listor som flyter runt här och där. Man kan säga att det ännu inte finns en enda lista över universell överklagande och samstämmighet. Det är de olyckliga nyheterna. Den goda nyheten är att det åtminstone finns lättillgängliga AI-etiklistor och de tenderar att vara ganska lika. Sammantaget tyder detta på att vi genom en form av motiverad konvergens finner vår väg mot en allmän gemensamhet av vad AI-etik består av.

Låt oss först kortfattat täcka några av de övergripande etiska AI-föreskrifterna för att illustrera vad som borde vara ett viktigt övervägande för alla som skapar, använder eller använder AI.

Till exempel, som anges av Vatikanen i Rome Call For AI Ethics och som jag har täckt ingående på länken här, dessa är deras identifierade sex primära AI-etiska principer:

  • Öppenhet: I princip måste AI-system vara förklarliga
  • integration: Alla människors behov måste beaktas så att alla får nytta och alla individer kan erbjudas bästa möjliga förutsättningar att uttrycka sig och utvecklas.
  • Ansvar: De som designar och distribuerar användningen av AI måste fortsätta med ansvar och transparens
  • Opartiskhet: Skapa inte eller agera inte i enlighet med partiskhet, vilket skyddar rättvisa och mänsklig värdighet
  • Pålitlighet: AI-system måste kunna fungera tillförlitligt
  • Säkerhet och integritet: AI-system måste fungera säkert och respektera användarnas integritet.

Som anges av det amerikanska försvarsdepartementet (DoD) i deras Etiska principer för användning av artificiell intelligens och som jag har täckt ingående på länken här, dessa är deras sex primära AI-etiska principer:

  • Ansvarig: DoD-personal kommer att utöva lämpliga nivåer av omdöme och omsorg samtidigt som de förblir ansvarig för utveckling, implementering och användning av AI-kapacitet.
  • Rättvis: Avdelningen kommer att vidta medvetna åtgärder för att minimera oavsiktlig fördom i AI-kapacitet.
  • Spårbar: Avdelningens AI-kapacitet kommer att utvecklas och distribueras så att relevant personal har en lämplig förståelse för tekniken, utvecklingsprocesser och operativa metoder som är tillämpliga på AI-kapacitet, inklusive transparenta och revisionsbara metoder, datakällor och designprocedurer och dokumentation.
  • Pålitlig: Avdelningens AI-förmågor kommer att ha explicita, väldefinierade användningsområden, och säkerheten, säkerheten och effektiviteten för sådana förmågor kommer att bli föremål för testning och försäkran inom de definierade användningarna över hela deras livscykel.
  • Styrbar: Avdelningen kommer att designa och konstruera AI-kapacitet för att uppfylla sina avsedda funktioner samtidigt som den har förmågan att upptäcka och undvika oavsiktliga konsekvenser, och förmågan att koppla ur eller inaktivera utplacerade system som visar oavsiktligt beteende.

Jag har också diskuterat olika kollektiva analyser av AI-etiska principer, inklusive att ha täckt en uppsättning utarbetad av forskare som undersökte och kondenserade essensen av många nationella och internationella AI-etiska principer i en artikel med titeln "The Global Landscape Of AI Ethics Guidelines" (publicerad i Natur), och som min bevakning utforskar kl länken här, vilket ledde till denna keystone-lista:

  • Öppenhet
  • Rättvisa & Rättvisa
  • Icke-ondska
  • Ansvar
  • Integritetspolicy
  • Välgörenhet
  • Frihet & autonomi
  • Litar
  • Hållbarhet
  • Värdighet
  • Solidaritet

Som du direkt kan gissa kan det vara extremt svårt att försöka fastställa detaljerna bakom dessa principer. Ännu mer så är ansträngningen att förvandla dessa breda principer till något helt påtagligt och tillräckligt detaljerat för att användas när man skapar AI-system också en svår nöt att knäcka. Det är lätt att överlag göra lite handviftande om vad AI-etiska föreskrifter är och hur de generellt bör följas, medan det är en mycket mer komplicerad situation i AI-kodningen som måste vara det veritabla gummit som möter vägen.

AI-etikprinciperna ska användas av AI-utvecklare, tillsammans med de som hanterar AI-utvecklingsinsatser, och även de som i slutändan arbetar med och utför underhåll av AI-system. Alla intressenter under hela AI-livscykeln för utveckling och användning anses vara inom ramen för att följa de etablerade normerna för etisk AI. Detta är en viktig höjdpunkt eftersom det vanliga antagandet är att "endast kodare" eller de som programmerar AI:n är föremål för att följa AI-etikbegreppet. Som tidigare nämnts krävs det en by för att utforma och sätta in AI, och för vilken hela byn måste vara bevandrad i och följa AI-etiska föreskrifter.

Låt oss också se till att vi är på samma sida om arten av dagens AI.

Det finns ingen AI idag som är kännande. Vi har inte det här. Vi vet inte om sentient AI kommer att vara möjligt. Ingen kan lämpligen förutsäga om vi kommer att uppnå sentient AI, och inte heller om sentient AI på något sätt mirakulöst spontant kommer att uppstå i en form av beräkningskognitiv supernova (vanligtvis kallad singulariteten, se min bevakning på länken här).

Den typ av AI som jag fokuserar på består av den icke-kännande AI som vi har idag. Om vi ​​ville spekulera vilt om kännande AI, den här diskussionen kan gå i en radikalt annan riktning. En kännande AI skulle förmodligen vara av mänsklig kvalitet. Du skulle behöva tänka på att den kännande AI är den kognitiva motsvarigheten till en människa. Mer så, eftersom vissa spekulerar att vi kan ha superintelligent AI, är det tänkbart att sådan AI kan bli smartare än människor (för min utforskning av superintelligent AI som en möjlighet, se täckningen här).

Låt oss hålla saker mer jordnära och överväga dagens beräkningslösa AI.

Inse att dagens AI inte kan "tänka" på något sätt i nivå med mänskligt tänkande. När du interagerar med Alexa eller Siri kan samtalskapaciteten tyckas likna mänsklig kapacitet, men verkligheten är att den är beräkningsmässig och saknar mänsklig kognition. Den senaste eran av AI har i stor utsträckning använt maskininlärning (ML) och djupinlärning (DL), som utnyttjar matchning av beräkningsmönster. Detta har lett till AI-system som ser ut som mänskliga benägenheter. Samtidigt finns det inte någon AI idag som har ett sken av sunt förnuft och inte heller något av det kognitiva förundran med robust mänskligt tänkande.

ML/DL är en form av beräkningsmönstermatchning. Det vanliga tillvägagångssättet är att man samlar ihop data om en beslutsuppgift. Du matar in data i ML/DL-datormodellerna. Dessa modeller försöker hitta matematiska mönster. Efter att ha hittat sådana mönster, om så hittas, kommer AI-systemet att använda dessa mönster när det möter ny data. Vid presentationen av nya data tillämpas mönstren baserade på "gamla" eller historiska data för att göra ett aktuellt beslut.

Jag tror att ni kan gissa vart detta är på väg. Om människor som har fattat mönstrade beslut har införlivat ogynnsamma fördomar, är oddsen att data speglar detta på subtila men betydelsefulla sätt. Machine Learning eller Deep Learning beräkningsmönstermatchning kommer helt enkelt att försöka matematiskt efterlikna data i enlighet därmed. Det finns inget sken av sunt förnuft eller andra kännande aspekter av AI-tillverkad modellering i sig.

Dessutom kanske AI-utvecklarna inte inser vad som händer heller. Den mystiska matematiken i ML/DL kan göra det svårt att ta bort de nu dolda fördomarna. Du skulle med rätta hoppas och förvänta dig att AI-utvecklarna skulle testa för de potentiellt begravda fördomarna, även om detta är svårare än det kan verka. Det finns en stor chans att det även med relativt omfattande tester kommer att finnas fördomar inbäddade i mönstermatchningsmodellerna för ML/DL.

Du skulle kunna använda det berömda eller ökända ordspråket om skräp-in skräp-ut. Saken är den att detta är mer besläktat med fördomar-in som smygande blir infunderade när fördomar nedsänkt i AI. Algoritmen för beslutsfattande (ADM) för AI blir axiomatiskt laddat med orättvisor.

Inte bra.

Låt oss nu återgå till ämnet AI-biasjakt.

För de av er som överväger en AI-bias prisjaktsträvan, här är mina rekommenderade sju nyckelsteg för hur man bäst går vidare:

1) utvärdera. Bedöm lämpligheten av en AI-bias prisjaktsträvan för dina omständigheter och enligt dina AI-system

2) Designa. Designa en lämplig AI-bias prisjaktsmetod

3) Implementera. Implementera och publicera dina AI-bias-prisjaktsträvanden

4) Fält. Sätt in AI:n fördomar om prisanspråk och bearbeta därefter

5) Fast. Fixa eller justera din AI som är relevant för dessa upptäckta AI-biasexponeringar

6) Justera. Justera AI-fördomarna vid prisjakt efter behov

7) Avbryta. Avbryt AI-bias-prisjakten när den inte längre behövs

I min serie av steg ovan, notera att jag nämner att du förmodligen kommer att vilja fixa eller justera din AI baserat på att försäkra dig om att en påstådd AI-bias faktiskt existerar i ditt AI-system. Detta är rikligt vettigt. Du skulle nästan säkert vilja stötta upp alla hittade AI-fördomar. Tänk på de juridiska (och etiska) konsekvenserna om du inte gör det. Det är en sak att påstå att du inte visste att en AI-bias existerade och därför lät den existera, medan det är mycket skakigare att ha dokumenterat att du blev medveten om en AI-bias och inte gjorde något åt ​​det.

Arten och graden av AI-fixen eller -justeringen skulle naturligtvis vara beroende av hur betydande AI-fördomarna var och hur djupt inbäddade problemen är. Om du har tur kanske en blygsam mängd ändringar av AI:n kommer att rätta till saken. Den andra potentialen är att du kan behöva göra en hel omskrivning av AI:n. För ML/DL-typ av AI kan detta kräva att man går tillbaka till ritbordet och börjar på nytt med en helt ny uppsättning data och en rensad ML/DL-modell. Jag har diskuterat tillkomsten av AI-disgorgement eller AI-förstöring som ett potentiellt rättsligt botemedel mot motbjudande AI, se länken här.

En fråga att fundera över är om du skulle vilja att prisjägarna möjligen skulle göra mer än att bara identifiera förekomsten av AI-fördomar. Du kan till exempel mildra belöningen genom att indikera att föreslagna korrigeringar också är välkomna. En AI-bias hittade av en prisjägare kan betalas en angiven belöning eller pris. Om prisjägaren också kan erbjuda en livskraftig fast till AI-bias kan de då beviljas en extra belöning.

Vissa hävdar att detta är en bro för långt. De säger att du bör hålla AI-bias-prisjägare uteslutande fokuserade på att hitta AI-biaser. Du kommer att skapa en massa oönskade negativa konsekvenser genom att bjuda in dem att också föreslå korrigeringar. Håll saker enkelt. Målet är att få så många fler ögon på att upptäcka AI-fördomar så att du kan bestämma vad du ska göra härnäst. Gör inte lera i vattnet.

En svår aspekt som måste redas ut är storleken på belöningen eller priset för prisjägare som verkligen upptäcker AI-fördomar. Du vill att utdelningen ska vara demonstrativ. Utan en tillräckligt hög belöning kommer du inte att få många prisjägare eller så är de inte särskilt ivriga att söka upp AI-fördomarna i dina AI-system. De kan i stället koncentrera sig på andra AI-bias bounty-strävanden.

Dessutom vill du, som nämnts, försöka undertrycka en uppmaning från prisjägarna att förvandla sina upptäckter av AI-bias till andra former av guld. Om belöningen verkar ynklig, kan det irritera prisjägare att söka andra högre utdelningar. De kan ta en ransomware-strategi mot dig. De kanske deklarerar att de har en saftig AI-bias som en konkurrent skulle älska att veta om och kan använda mot ditt företag genom att hävda att AI-bias finns i din AI. Således säljer de den upptäckta AI-bias till högstbjudande. Och så vidare.

Man antar att om du sätter belöningen på ett extremt högt intervall, ber du också om potentiella problem. Detta kan locka alla typer av prisjägare. De i sin tur kan översvämma sociala medier med oklara påståenden om att de hittat en mängd AI-fördomar, gör det för sin egen självreklam och utan att faktiskt ha spridit några AI-fördomar. På sätt och vis lyser din förhöjda belöning oavsiktligt ett ljus på din AI och driver en massa fula nattfjärilar för att på motsvarande sätt attraheras fördärvligt av den glödande ljusstrålen.

En annan faktor är tillgängligheten till din AI.

För att möjliggöra en AI-prisjaktsmöjlighet måste prisjägarna få tillräckligt med tillgång till din AI. De kommer inte att ha mycket tur med att hitta AI-fördomar om de är helt uteslutna. Men du vill inte ge upp dina cybersäkerhetsskydd eftersom det kan äventyra ditt AI-system helt.

Du kan försöka få prisjägarna att underteckna olika juridiskt bindande förklaringar och sedan ge dem den åtkomst som behövs. Vissa prisjägare kommer inte att gilla den typen av tillvägagångssätt. Deras synpunkt är att de bara kommer att göra vad som helst alla offentligt tillgängliga och öppna vägar tillåter. De är så att säga fria ensamvargar och gillar inte att sadlas så att säga. Att få dem att sätta sin signatur på skrämmande juridiska dokument kommer att få många av dem att undvika att söka efter AI-fördomar i din AI. Eller så kanske de blir irriterade på din juridiska handske och bestämmer sig för att de kommer att se vad de kan hitta på offentliga medel, och gör det med den kanske skarpa längtan att visa dig hur sårbar du verkligen är.

Jag har ännu en vinkel som kan få ditt huvud att snurra.

En AI-kunnig prisjägare kan besluta sig för att utveckla ett AI-system som kan granska din AI och eventuellt upptäcka AI-fördomar i din AI. Det här är verktygsmakaren som väljer att göra ett verktyg för att göra jobbet istället för att utföra manuellt arbete själva. Istället för att mödosamt undersöka din AI, spenderar den AI-kunniga prisjägaren sin tid på att koka ihop ett AI-verktyg som gör samma sak. De använder sedan AI-verktyget på din AI. Det fina är också att de förmodligen kan återanvända AI-verktyget på alla andra som också erbjuder en prisjaktmöjlighet på deras respektive AI.

Jag vet vad du förmodligen tänker. Om ett AI-verktyg kan utformas för att undersöka AI för fördomar, borde tillverkaren av AI:n som granskas för AI-bias antingen skapa ett sådant AI-verktyg eller köpa ett för eget bruk. I teorin behöver de då inte brottas med hela prisjägarekarnevalen, till att börja med. Använd bara AI för att hitta deras AI-fördomar.

Ja, det här är något som du kan förvänta dig kommer gradvis att uppstå. Samtidigt kommer grundpelaren i dessa ansträngningar sannolikt att bestå av AI-utvecklare som gör prisjakt. De kan använda olika verktyg för att hjälpa sina ansträngningar, men på kort sikt är det osannolikt att de helt enkelt tanklöst ställer in AI-verktyget på automatiskt och tar en tupplur så att verktyget gör hela AI-bias på jakt efter dem.

Vi är inte där ännu.

Vid denna tidpunkt av denna tunga diskussion, skulle jag slå vad om att du är sugen på några illustrativa exempel som kan visa upp detta ämne. Det finns en speciell och säkerligen populär uppsättning exempel som ligger mig varmt om hjärtat. Du förstår, i min egenskap av expert på AI inklusive de etiska och juridiska konsekvenserna, blir jag ofta ombedd att identifiera realistiska exempel som visar upp AI-etiska dilemman så att ämnets något teoretiska natur kan lättare förstås. Ett av de mest suggestiva områdena som på ett levande sätt presenterar detta etiska AI-problem är tillkomsten av AI-baserade äkta självkörande bilar. Detta kommer att fungera som ett praktiskt användningsfall eller exempel för omfattande diskussioner om ämnet.

Här är en anmärkningsvärd fråga som är värd att överväga: Belyser tillkomsten av AI-baserade äkta självkörande bilar något om användningen av AI-bias prisjakt, och i så fall, vad visar detta?

Tillåt mig en stund att packa upp frågan.

Observera först att det inte finns en mänsklig förare inblandad i en äkta självkörande bil. Tänk på att äkta självkörande bilar körs via ett AI-körsystem. Det finns inte ett behov av en mänsklig förare vid ratten, och det finns inte heller en bestämmelse för en människa att köra fordonet. För min omfattande och pågående bevakning av Autonomous Vehicles (AV) och speciellt självkörande bilar, se länken här.

Jag vill ytterligare klargöra vad som menas när jag hänvisar till riktiga självkörande bilar.

Förstå nivåerna av självkörande bilar

Som ett förtydligande är sanna självkörande bilar sådana där AI kör bilen helt på egen hand och det inte finns någon mänsklig hjälp under köruppgiften.

Dessa förarlösa fordon betraktas som nivå 4 och nivå 5 (se min förklaring på denna länk här), medan en bil som kräver en mänsklig förare för att dela köransträngningen vanligtvis anses vara på nivå 2 eller nivå 3. Bilarna som delar på köruppgiften beskrivs som halvautonoma och innehåller vanligtvis en mängd olika automatiserade tillägg som kallas ADAADA
S (Advanced Driver-Assistance Systems).

Det finns ännu inte en riktig självkörande bil på nivå 5, och vi vet ännu inte ens om detta kommer att vara möjligt att uppnå, inte heller hur lång tid det kommer att ta att komma dit.

Under tiden försöker nivå 4-ansträngningarna gradvis få lite dragkraft genom att genomgå mycket smala och selektiva offentliga vägförsök, även om det finns kontroverser om huruvida denna testning ska vara tillåten i sig (vi är alla liv-eller-död-marsvin i ett experiment. som äger rum på våra motorvägar och motorvägar, menar vissa, se min täckning på denna länk här).

Eftersom semi-autonoma bilar kräver en mänsklig förare, kommer antagandet av dessa typer av bilar inte att vara märkbart annorlunda än att köra konventionella fordon, så det finns inte mycket nytt i sig att täcka om dem om detta ämne (men som du kommer att se på ett ögonblick är de punkter som nästa görs generellt tillämpliga)

För semi-autonoma bilar är det viktigt att allmänheten måste varnas om en oroande aspekt som har uppstått på sistone, nämligen att trots de mänskliga förarna som fortsätter att lägga upp videor om sig själva somna vid ratten i en nivå 2 eller nivå 3 bil , vi måste alla undvika att bli vilseledda till att tro att föraren kan ta bort sin uppmärksamhet från köruppgiften medan han kör en semi-autonom bil.

Du är den ansvariga parten för fordonets körning, oavsett hur mycket automatisering som kan kastas till nivå 2 eller nivå 3.

Självkörande bilar och AI Bias Bounty Jakt

För nivå 4 och 5 verkliga självkörande fordon finns det ingen mänsklig förare som är involverad i köruppgiften.

Alla passagerare kommer att vara passagerare.

AI kör körningen.

En aspekt att omedelbart diskutera innebär det faktum att AI involverad i dagens AI-körsystem inte är känslig. Med andra ord är AI helt och hållet en kollektiv datorbaserad programmering och algoritmer, och kan med säkerhet inte resonera på samma sätt som människor kan.

Varför är denna extra tonvikt om att AI inte är känslig?

Eftersom jag vill understryka att när jag diskuterar AI-drivsystemets roll tillskriver jag inte mänskliga egenskaper till AI. Tänk på att det idag finns en pågående och farlig tendens att antropomorfisera AI. I grund och botten tilldelar människor mänsklig känsla till dagens AI, trots det obestridliga och obestridliga faktum att ingen sådan AI finns än.

Med det förtydligandet kan du föreställa dig att AI-körsystemet inte på något sätt "vet" om körningens aspekter. Körning och allt det innebär kommer att behöva programmeras som en del av hårdvaran och mjukvaran i den självkörande bilen.

Låt oss dyka in i den myriad av aspekter som kommer att spela om detta ämne.

För det första är det viktigt att inse att inte alla AI självkörande bilar är likadana. Varje biltillverkare och självkörande teknikföretag tar sitt tillvägagångssätt för att utforma självkörande bilar. Som sådan är det svårt att göra svepande uttalanden om vad AI-körsystem kommer att göra eller inte.

Dessutom, närhelst man säger att ett AI-körsystem inte gör någon speciell sak, kan detta senare övertas av utvecklare som faktiskt programmerar datorn att göra just det. Steg för steg förbättras och utökas AI-körsystemen gradvis. En befintlig begränsning idag kanske inte längre existerar i en framtida iteration eller version av systemet.

Jag hoppas att det ger en tillräcklig litania av varningar för att ligga till grund för det jag ska berätta.

I mina spalter har jag redan länge diskuterat användningen av bugg-orienterade prisjägare i sfären för autonoma fordon och självkörande bilar. Detta tillvägagångssätt har verkligen ägt rum i denna nisch. Det finns de vanliga debatterna om det är en bra idé eller inte. Insatserna har oftast varit av begränsad karaktär, ofta hållits relativt tysta.

En likaså diskurs kan uppstå när fokus skiftar mot att leta efter AI-fördomar snarare än att söka systembuggar i sig. Vissa föreslår att det är förbannat om du gör det, förbannat om du inte funderar.

Här är varför.

För det första, för att vara tydlig, det finns många sätt på vilka autonoma fordon och självkörande bilar kommer att utsättas för innehållande AI-fördomar, se min bevakning på länken här och länken här, bara för att nämna några. Biltillverkare och självkörande bilföretag verkar klokt att försöka förhindra dessa AI-fördomar från att dyka upp i deras AI-system. Den juridiska och etiska eldstormen mot sådana företag kommer utan tvekan att bli intensiv.

Är användningen av en AI-fördomssatsning på prisjakt ett lämpligt tillvägagångssätt i detta specifika sammanhang?

Ett svar är att ja, detta kommer att vara praktiskt och ge ett överflöd av "gratis" uppsättningar av nya ögon för att försöka fånga eventuella inbäddade AI-fördomar hos en AI-självkörande bil eller liknande. De flesta av AI-utvecklarna som bygger självkörande bilar är upptagna med att tillverka AI som säkert kan köra en bil från punkt A till punkt B. De är upptagna av den kärnförmågan och har varken tid eller uppmärksamhet på några AI-fördomar som kan finnas någonstans i deras AI.

Det andra svaret är att nej, att tillåta prisjakt för autonoma fordon och självkörande bilar på vilken grund som helst, oavsett om det är för buggar eller AI-fördomar, bara borde undvikas. Argumentet är att dessa fordon och deras AI är av en kaliber på liv eller död. Att bråka med AI på något sätt kan på något sätt vara förstört för AI och påverka vad AI-körsystemet gör.

Ett motargument till den sista punkten är att prisjägarna inte ska kunna ändra den AI som de undersöker. Det är alltså ingen fara att de bråkar med AI:n och gör att AI:n i detta sammanhang plötsligt blir ett galet AI-körsystem. Prisjägarna har bara skrivskyddad tillgång. Att tillåta dem att gå längre skulle vara ganska dumt och ett stort misstag.

Motargumentet till det motargumentet är att genom att tillåta och uppmuntra prisjägare att undersöka din AI, blir hela saken svår. Dessa prisjägare kan komma på sätt att utnyttja eventuella upptäckta buggar eller fördomar. Dessa bedrifter kan i sin tur vara för slingrande syften. Du skulle vara bättre att inte bjuda in "inbrottstjuvar" i ditt hem, så att säga. När de väl har tappat ut fogen kommer du i slutändan att hamna i en massa problem.

För dem som har AI-system av en storleksordning som är mindre än liv eller död, är tron ​​att återverkningarna av en prisjakt som går snett är mycket mindre riskabla. Kanske så. Å andra sidan, om ett företag har hällt sina pengar i ett AI-system som prisjägare lyckas tillskansa sig, kan du anta att rykteskadorna och andra potentiella skador fortfarande kommer att skada.

Det finns ingen gratis lunch när det kommer till AI-bias prisjakt.

En snabb avslutande kommentar för nu.

När den ökända fredlösen Jesse James eftersöktes under Gamla Västern, trycktes en "Efterlyst"-affisch som erbjöd en prispeng på $5,000 XNUMX för hans tillfångatagande (med angivande av "död eller levande"). Det var en ganska stor summa pengar på den tiden. En av hans egna gängmedlemmar valde att skjuta ihjäl Jesse och samla in belöningen. Jag antar att det visar hur effektiv en belöning kan vara.

Kommer användningen av AI-bias-prisjägare att vara en bra sak, eller kommer det att vara en dålig sak?

Om du väljer att inleda en AI-bias prisjägare-strävan, skulle jag föreslå att du håller ögonen vidöppna och tittar dig över axeln hela tiden. Detta är klokt för dig och din AI. Du vet aldrig vad som kan hända, inklusive att en smygande prisjägare på något sätt i smyg infogar en AI-bias i din AI och ropar till världen att de hittat en skrupelfri AI-bias i din AI. Kanske gör det i ett fräckt och överdimensionerat försök att söka prisbelöningen, plus att utropa sig själva till en hjälte som i huvudsak fick den omtalade Jesse James.

Kom att tänka på det, en kännande AI kommer förmodligen inte att gilla idén om en förvirrande död-eller-levande-försörjning, kan man slarvigt spekulera.

Källa: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- etiskt-onda-fullständigt-autonoma-system-är-försiktigt-eller-fängslöst/