AI-etik störd av senaste Kina-utarbetade AI Party-lojalitet Tankeläsande ansiktsigenkänningsintyg som kan förebåda förtryckande autonoma system

Är du lojal?

I teorin kan det vara möjligt att undersöka dina uppenbara handlingar och fastställa om lojalitet uppvisas av dina handlingar.

Anta dock att det istället gjordes ett försök att läsa dina tankar och under tiden skanna ditt ansikte för att fastställa din lojalitetskvot. Detta är kusligt påträngande; du kan lätt förneka. Låter som en av de där galna sci-fi-filmerna som föreställer sig ett framtida dystopiskt samhälle.

Tack och lov, viskar du smygande för dig själv, vi har inget sådant idag.

Oj, håll i dina hästar.

Nyhetsrubriker skräller nyligen att en forskningsartikel som publicerades online i Kina den 1 juli 2022, skildrade en studie som påstås innefatta en bedömning av människors hjärnvågor och deras ansiktsuttryck i syfte att beräkna om de var lojala mot det kinesiska kommunistpartiet (KKP) . Så där går du, framtiden kommer närmare och närmare, åtminstone när det gäller att uppnå det dystopiska samhälle som vi har fruktat att en dag skulle kunna uppstå.

Forskningsartikeln försvann snabbt från dess online-länk.

Förmodligen räckte det snabba hån som snabbt svepte över internet för att få tidningen nedplockad. Eller så kanske forskarna bara vill göra några formuleringsändringar och andra ofarliga korrigeringar, i syfte att göra en repostering när de väl har fått en mer grundlig chans att se till att i:en är prickade och t:en är alla korsade. Vi måste hålla ögonen öppna för att se om tidningen får ett andra liv.

Jag ska gå vidare och göra en djupdykning i vad vi vet om forskningsstudien och försöka koppla ihop prickarna om hur den här typen av AI-relaterat arbete har betydelse för oss alla, och går långt utanför räckvidden för att se detta. som begränsat till ett visst land. Min bevakning kommer att vara lite mer omfattande än de andra senaste rapporterna om detta nyhetsvärde, så snälla ha uthållighet med mig.

Min ytterligare betoning kommer också att vara att det finns en rad viktiga AI-etiklektioner som vi kan hämta från den påstådda tidningen. För min pågående och omfattande bevakning av AI-etik och etisk AI, se länken här och länken här, bara för att nämna några.

Här är vad som hittills har nämnts om forskningsstudien.

Uppenbarligen rekryterades några "frivilliga" för att delta i ett experiment angående uppfattningar om KKP. Det är okänt om de var villiga volontärer eller mer besläktade med goaded eller kanske guidade volontärer. Vi kommer för diskussionens skull anta att de var behagliga att vara ett ämne i studien.

Jag tar upp det här för att inte bara vara smarrig. Närhelst ett experiment görs som involverar mänskliga försökspersoner, finns det en uppsjö av allmänt accepterade metoder för rekrytering och fördjupning av sådana försökspersoner i en forskningsinsats. Detta spårar delvis tillbaka till tidigare studier som ofta lurade eller tvingade människor att delta i ett experiment, vilket ibland ledde till negativa psykologiska återverkningar eller till och med fysisk skada för dessa deltagare. Det vetenskapliga samfundet har kraftfullt försökt att begränsa dessa typer av lömska studier och kräver att alla typer av avslöjanden och varningar ges till dem som söks för att inkluderas i mänskliga relaterade studier.

För att förtydliga, inte alla följer sådana försiktiga och samvetsgranna riktlinjer.

När vi går vidare, var det enligt uppgift 43 ämnen, och de sades vara medlemmar av Kinas kommunistparti. Tänk på att valet av försökspersoner för ett experiment är ganska avgörande för experimentet och även måste tas med i beräkningen när det gäller eventuella slutsatser som du kan försöka dra efteråt om resultaten av experimentet.

Anta att jag vill göra ett experiment om hur folk uppfattar den hyllade Star Wars-serien. Om jag i förväg väljer ämnen som alla rungande hatar Star Wars (hur kan sådana människor existera?), och jag visar dem Star Wars-videoklipp, är oddsen att de förmodligen kommer att säga att de fortfarande ogillar Star Wars. Baserat på detta pseudo-vetenskapliga experiment, kanske jag smygande hävdar att människor - i allmänhet - verkligen hatar Star Wars, vilket "bevisades" (blink-blink) i min "noggrant" förberedda forskningsmiljö.

Du kanske inte visste att jag hade riggat roulettehjulet, så att säga, genom att förvälja de ämnen som jag förväntade mig skulle ge mina i smyg önskade resultat. Naturligtvis, hade jag avsiktligt istället rekryterat folk som älskade Star Wars och var nitiska ivriga fans, är chansen stor att de skulle rapportera att de var extatiska över att se dessa Star Wars-klipp. Återigen, alla slutsatser om hur människor i allmänhet reagerar på Star Wars skulle dämpas av den förvalda uppsättningen av ämnen som valts ut för insatsen.

Den KKP-fokuserade studien fick till synes försökspersonerna att sitta framför en kioskliknande videoskärm och läsa olika artiklar om KKP:s policy och prestationer. Detta är förmodligen den betraktade "experimentella behandlingen" som försökspersonerna utsätts för. När du planerar ett experiment kommer du vanligtvis på en experimentell faktor eller aspekt som du vill se om den påverkar deltagarna.

Forskningsfrågan som uppenbarligen undersöktes var om handlingen att granska dessa material skulle ha någon inverkan på försökspersonerna när det gäller att öka, minska eller vara neutrala till deras efterföljande intryck av KKP.

I en klassisk nollhypotes skulle du kanske arrangera en sådan studie för att konstatera att de material som konsumeras inte har någon inverkan på de efterföljande intryck som försökspersonerna uttrycker. När du väl har gjort en före och efter jämförelse av deras åsikter om KKP, skulle du statistiskt försöka se om det fanns en statistiskt signifikant upptäckt av en förändring i deras intryck.

Det kan vara så att före och efter inte är statistiskt olika, därför kan du rimligen preliminärt dra slutsatsen att det visade materialet (experimentell behandling) inte verkade göra någon skillnad i deras intryck för just denna studie. Å andra sidan, om det fanns en statistiskt giltig skillnad, skulle du titta för att se om efterföljden var större än före, vilket gör att du försiktigt kan antyda att materialen förstärkte deras intryck (och på andra sidan av myntet, om efter var mindre än före detta kan innebära att materialen minskade eller sänkte deras intryck).

Det finns många tjatande lösa trådar som skulle behöva hanteras i en sådan studie.

Vi brukar till exempel vilja ha en så kallad kontrollgrupp som vi kan jämföra med de som får den experimentella behandlingen. Här är varför. Antag att handlingen att sitta framför en kiosk för att läsa material var den sanna grunden till varför intrycken ändrades. Det kan vara så att typen av material som konsumeras är ungefär oväsentlig för intryckets påverkan. Att bara sitta och läsa vad som helst, som de senaste historierna om katter som gör roliga saker, kan göra susen ensam. Vi kan därför ordna så att vissa ämnen finns i vår kontrollgrupp som exponeras för annat material att läsa, annat än KKP:s policy och resultatmaterial.

Vi vet inte om det gjordes i det här fallet (ingen verkar ha nämnt denna aspekt ännu).

Jag inser att du nu börjar bli arg på den medieexplosiva delen av studien. Vi kommer skyndsamt att gå in i den delen.

Hur kan vi upptäcka om försökspersonerna i detta experiment svarade på eller ändrade sina intryck som ett resultat av att de läste det visade materialet?

Ett vanligt sätt skulle vara att fråga dem.

Du skulle i förväg kanske ha administrerat ett frågeformulär som frågar dem deras intryck av KKP. Sedan, efter exponeringen för den experimentella behandlingen, som i läsningen av material som visas, kunde vi administrera ytterligare ett frågeformulär. De svar som försökspersonerna gav på före och efter basis kan sedan jämföras. Om vi ​​också använde en kontrollgrupp skulle vi anta att kontrollgruppens svar inte väsentligt skulle förändras från före till efter (under tron ​​att det att titta på berättelser om lekande katter inte borde ha påverkat deras KKP-intryck).

Denna handling att fråga försökspersonerna om deras intryck är inte nödvändigtvis så okomplicerad som det kan verka.

Anta att försökspersonerna i experimentet får en känsla av att du vill att de ska svara på den experimentella behandlingen på ett speciellt sätt. I så fall kan de medvetet överdriva sina reaktioner i efterdelen av den experimentella administreringen. Du har säkert sett detta hända. Om jag gör ett smakprov för en ny läsk som kommer ut på marknaden, kanske jag agerar som om jag njöt av läsk, gör det i hopp om att kanske bli med i en annons av läsktillverkaren och få mina rikt välförtjänta femton minuter av berömmelse .

Kontentan är att bara att fråga folk om deras åsikter inte är ett säkert sätt att mäta förändringar. Det är ett tillvägagångssätt. Andra tillvägagångssätt kan och vidtas också ofta.

Hur valde just denna studie att mäta reaktionerna från försökspersonerna?

Tydligen användes åtminstone två metoder. En metod bestod av att göra en ansiktsskanning och använda AI-baserad mjukvara för ansiktsigenkänning för att bedöma reaktionerna från försökspersonerna. Den andra metoden var enligt uppgift någon form av hjärnvågsskanning. Det har ännu inte rapporterats om vilken typ av hjärnvågsavsökningsenheter som användes, inte heller vilken typ av AI-baserad programvara för hjärnvågsanalys som användes.

Olika rapporter har indikerat att studien konstaterade detta om experimentets natur: "Å ena sidan kan den bedöma hur partimedlemmar har accepterat tanke och politisk utbildning." Och studien lär också ha nämnt detta också: "Å andra sidan kommer den att ge verkliga data för tanke och politisk utbildning så att den kan förbättras och berikas." Forskningsstudien tillskrevs att den utfördes under överinseende av Kinas Hefei Comprehensive National Science Centre.

Medierapporter tyder på att studien anspelade på ett påstående om att ansiktsigenkänningsskanningarna och hjärnvågsskanningarna kunde hjälpa till att upptäcka att efterintrycken förstärktes av KKP.

Jag skulle vilja notera för dig att utan att direkt kunna granska de använda systemen och noggrant granska forskningsrapporten, vet vi inte detaljerna om hur dessa AI-baserade system användes exakt.

Det kan vara så att försökspersonerna reagerade på den experimentella miljön snarare än att reagera på den experimentella behandlingen. Alla som deltar i en studie kan vara oroliga till att börja med. Detta kan förvirra alla försök att göra hjärnvågsskanningar eller analys av ansiktsmönster. Det finns också chansen att de kände sig motiverade att tillfredsställa forskarna och valde att ha skapat positiva tankar efter att ha sett materialet och detta skulle i teorin kunna återspeglas i hjärnvågsskanningarna och ansiktsskanningarna (kanske, men var snäll och vet att det finns en bra en hel del passionerad kontrovers om giltigheten av sådana påståenden, som jag kommer att belysa ett ögonblick), i hopp om att förvränga resultaten och visa att de påverkades positivt.

Twitter-reaktionen förkastade i hög grad att själva idén om att använda AI-bemyndigade hjärnvågsskanningar och ansiktsigenkänning i sig är en skrämmande och skandalös handling. Endast mänskliga monster skulle använda den typen av enheter, får vi veta av några av dessa tweets.

Jag måste be dig att sätta dig ner och förbereda dig på något som kan vara en oförskämd och chockerande överraskning.

Det finns många forskare över hela världen som använder samma typer av teknologier i sina forskningsstudier. Detta är verkligen inte första gången som en hjärnvågsskanningsfunktion användes på mänskliga försökspersoner i ett forskningsarbete. Detta var definitivt inte första gången som ansiktsigenkänning användes på människor i experimentella syften. Även en översiktlig onlinesökning kommer att visa dig massor av experimentella studier i alla möjliga länder och laboratorier som har använt den typen av enheter.

Nu, som sagt, att använda dem för att mäta lojalitet till KKP är inte något du skulle finna mycket fokus på. När sådan AI används för statlig kontroll har en röd linje passerats, som man säger.

Det är den uppenbarligen kyliga delen av hela kitet och caboodle.

Den uttryckta oro av många är att om regeringar väljer att använda hjärnvågsskanningsteknik och ansiktsigenkänning för att förvissa sig om lojalitet mot de regimer som finns, kommer vi att hamna i en dystopisk värld av skada. När du går på en allmän gata kan det vara så att en enhet monterad på en lyktstolpe i hemlighet kommer att avgöra din lojalitetskvot.

Man antar att om ditt ansikte inte verkar antyda att du är tillräckligt lojal, eller om hjärnvågsskanningen tyder på detsamma, kan statliga ligister plötsligt rusa upp och ta tag i dig. Upprörande. Bottenlös. Får inte tillåtas.

Det är kärnan i varför en rubrik som strömmar uppror och upprördhet har uppstått på denna nyhet.

Föreställ dig detta. Vi kommer eventuellt att tillverka och sedan ta i bruk datorbaserade system som använder det senaste inom AI för att avgöra om vi är lojala eller inte. Om du försökte anställa folk att sitta och göra detsamma, skulle du behöva många människor och du skulle ha ett logistiskt problem med att försöka placera dem för att se alla. När det gäller ett AI-baserat system är allt du behöver göra att installera de elektroniska enheterna på lyktstolpar, sidor av byggnader och så vidare. Skanningen för lojalitet kan ske 24×7, hela tiden, på alla platser så utrustade. Detta kan sedan matas in i en massiv databas.

Vi blir människor som bara är kuggar i ett kolossallseende alliakttagande samhälleligt förtryckande ekosystem. Det seende ögat är inte bara att titta på vad vi gör. Det är också att tolka vad våra ansikten säger sig säga om vår lojalitet till regeringen. Vårt sinne ska också undersökas för en liknande fruktansvärd orsak.

Usch!

Det finns en sekundär oro som kommer från detta också, men kanske inte riktigt så taggiga i jämförelse med Big Brother-konsekvenserna som redan skisserats.

Fundera över dessa två angelägna frågor:

  • Kan vi på ett tillförlitligt sätt hävda att en hjärnvågsskanning kan intyga din lojalitet?
  • Kan vi på ett tillförlitligt sätt hävda att en ansiktsigenkänningsskanning kan intyga din lojalitet?

Håll ut, du kanske skriker högst upp i lungorna.

Jag inser och erkänner att du kanske inte bryr dig lika mycket om tillförlitlighetsaspekterna i sig. Om detta kan göras på ett tillförlitligt sätt är mindre avgörande än att det överhuvudtaget görs. Ingen borde vara under sådan granskning. Glöm om tekniken fungerar lämpligt för denna uppgift. Vi borde inte ta oss an uppgiften i början.

Hur som helst är svaret just nu ett rungande nej, nämligen att befintliga AI-system som gör någon form av "hjärnvågsskanningar" och ansiktsigenkänning inte är tillräckligt kapabla för att ta det språnget.

Du har kanske sett på sistone att några av ansiktsigenkänningstillverkarna har gjort en del backtracking när det gäller hur deras ansiktsigenkänningssystem tas i bruk. I ett kommande kolumninlägg kommer jag att diskutera de senaste ansträngningarna av t.ex. Microsoft för att försöka hejda strömmen av dem som använder de av Microsoft tillhandahållna ansiktsigenkänningsverktygen för ändamål långt utöver vad tekniken kan göra eller borde användas för . Du kanske kan vara av intresse för min tidigare titt på AI-etiska betänkligheter som redan har publicerats väl om ansiktsigenkänning, se länken här. Jag har också diskuterat arenan för hjärnvågsskanningar, se min diskussion på länken här.

Kort sagt, det finns inga tillförlitliga eller förnuftiga sätt att antyda att en hjärnvågsskanning eller en ansiktsigenkänningsskanning kan utge sig för att avbilda någons lojalitet. Även förmodligen grundläggande aspekter som huruvida du på ett tillförlitligt sätt kan relatera dessa skanningar till om någon är glad eller ledsen diskuteras fortfarande hett. Att försöka höja försprånget till något så amorft och varierande som lojalitet är en bro för långt.

Jag kan tillägga att vissa tror starkt att vi så småningom kommer att nå dit. Det är därför jag noggrant har försökt notera att vi inte är där än, snarare än att konstatera att vi aldrig kommer att nå dit. Aldrig är ett stort ord. Du måste vara helt säker på om du ska kasta runt att detta kommer aldrig vara genomförbart (kom ihåg att "aldrig" omfattar decennier från nu, århundraden från nu och tusentals eller miljoner år från nu).

Vissa har reagerat på nyheten om denna kinesiska labbforskning som en indikator på hur farligt världen går över till olämplig och farlig användning av AI. Jag kommer för en kort stund att dela med mig av en glimt av vad AI-etik handlar om. Detta kommer att hjälpa dig att mer levande se varför just denna studie verkar bryta mot många om inte nästan alla de allmänt accepterade föreskrifterna för etisk AI.

Tro det eller ej, några har föreslagit att vi kanske gör ett berg av en mullvadshög angående just denna studie.

Är vi?

Motargumentet är att en mullvadskull snart nog kan bli ett berg. I den ökända föreställningen om en snöboll som blir större och större när den rullar nerför en snöig backe, måste vi stoppa snöbollen från att komma igång. Om vi ​​tolererar den här typen av studier låter vi den snöbollen börja sin resa. Genom att säga ifrån och kalla ut sådana studier kanske vi kan föregripa snöbollen.

En sak är säker, vi är på väg att öppna Pandoras låda när det kommer till AI-aspekter, och frågan kvarstår om vi kan förhindra att lådan öppnas eller åtminstone hitta något sätt att hantera det som kommer ut på ett försiktigt sätt. när lådan har släppt lös sitt djävulska innehåll.

Om inte annat, förhoppningsvis kommer den här typen av mediestormar att leda till en omfattande diskussion om hur vi ska förhindra AI-relaterat illdåd och avvärja många AI-utlösta existentiella risker. Vi måste höja vår samhälleliga medvetenhet om AI-etik och etiska AI-överväganden.

Innan vi går in på lite mer kött och potatis om de vilda och ulliga övervägandena som ligger bakom dessa typer av AI-system, låt oss fastställa några ytterligare grunder om djupt viktiga ämnen. Vi behöver en kort dykning i AI-etiken och särskilt tillkomsten av Machine Learning (ML) och Deep Learning (DL).

Du kanske är vagt medveten om att en av de mest högljudda rösterna nuförtiden inom AI-området och även utanför AI-området består av att ropa efter en större sken av etisk AI. Låt oss ta en titt på vad det innebär att referera till AI-etik och etisk AI. Utöver det kommer vi att utforska vad jag menar när jag talar om maskininlärning och djupinlärning.

Ett särskilt segment eller del av AI-etiken som har fått mycket uppmärksamhet i media består av AI som uppvisar ogynnsamma fördomar och orättvisor. Du kanske är medveten om att när den senaste eran av AI började var det en enorm explosion av entusiasm för det som vissa nu kallar AI For Good. Tyvärr, i hälarna av den strömmande spänningen, började vi bevittna AI för dåligt. Till exempel har olika AI-baserade ansiktsigenkänningssystem avslöjats innehålla rasfördomar och genusfördomar, vilket jag har diskuterat på länken här.

Ansträngningar att slå tillbaka mot AI för dåligt pågår aktivt. Förutom högljudd laglig i strävan efter att tygla missförhållandena, finns det också en rejäl strävan mot att omfamna AI-etiken för att rätta till AI-elakheten. Tanken är att vi bör anta och godkänna viktiga etiska AI-principer för utveckling och fält av AI för att underskrida AI för dåligt och samtidigt förebåda och främja det föredragna AI For Good.

På ett relaterat begrepp är jag en förespråkare av att försöka använda AI som en del av lösningen på AI-problem, bekämpa eld med eld på det sättet att tänka. Vi kan till exempel bädda in etiska AI-komponenter i ett AI-system som kommer att övervaka hur resten av AI:n gör saker och därmed potentiellt fånga upp i realtid eventuella diskriminerande ansträngningar, se min diskussion på länken här. Vi skulle också kunna ha ett separat AI-system som fungerar som en typ av AI-etikmonitor. AI-systemet fungerar som en övervakare för att spåra och upptäcka när en annan AI går in i den oetiska avgrunden (se min analys av sådana förmågor på länken här).

Om ett ögonblick ska jag dela med dig av några övergripande principer som ligger till grund för AI-etiken. Det finns massor av den här typen av listor som flyter runt här och där. Man kan säga att det ännu inte finns en enda lista över universell överklagande och samstämmighet. Det är de olyckliga nyheterna. Den goda nyheten är att det åtminstone finns lättillgängliga AI-etiklistor och de tenderar att vara ganska lika. Sammantaget tyder detta på att vi genom en form av motiverad konvergens finner vår väg mot en allmän gemensamhet av vad AI-etik består av.

Låt oss först kortfattat täcka några av de övergripande etiska AI-föreskrifterna för att illustrera vad som borde vara ett viktigt övervägande för alla som skapar, använder eller använder AI.

Till exempel, som anges av Vatikanen i Rome Call For AI Ethics och som jag har täckt ingående på länken här, dessa är deras identifierade sex primära AI-etiska principer:

  • Öppenhet: I princip måste AI-system vara förklarliga
  • integration: Alla människors behov måste beaktas så att alla får nytta och alla individer kan erbjudas bästa möjliga förutsättningar att uttrycka sig och utvecklas.
  • Ansvar: De som designar och distribuerar användningen av AI måste fortsätta med ansvar och transparens
  • Opartiskhet: Skapa inte eller agera inte i enlighet med partiskhet, vilket skyddar rättvisa och mänsklig värdighet
  • Pålitlighet: AI-system måste kunna fungera tillförlitligt
  • Säkerhet och integritet: AI-system måste fungera säkert och respektera användarnas integritet.

Som anges av det amerikanska försvarsdepartementet (DoD) i deras Etiska principer för användning av artificiell intelligens och som jag har täckt ingående på länken här, dessa är deras sex primära AI-etiska principer:

  • Ansvarig: DoD-personal kommer att utöva lämpliga nivåer av omdöme och omsorg samtidigt som de förblir ansvarig för utveckling, implementering och användning av AI-kapacitet.
  • Rättvis: Avdelningen kommer att vidta medvetna åtgärder för att minimera oavsiktlig fördom i AI-kapacitet.
  • Spårbar: Avdelningens AI-kapacitet kommer att utvecklas och distribueras så att relevant personal har en lämplig förståelse för tekniken, utvecklingsprocesser och operativa metoder som är tillämpliga på AI-kapacitet, inklusive transparenta och revisionsbara metoder, datakällor och designprocedurer och dokumentation.
  • Pålitlig: Avdelningens AI-förmågor kommer att ha explicita, väldefinierade användningsområden, och säkerheten, säkerheten och effektiviteten för sådana förmågor kommer att bli föremål för testning och försäkran inom de definierade användningarna över hela deras livscykel.
  • Styrbar: Avdelningen kommer att designa och konstruera AI-kapacitet för att uppfylla sina avsedda funktioner samtidigt som den har förmågan att upptäcka och undvika oavsiktliga konsekvenser, och förmågan att koppla ur eller inaktivera utplacerade system som visar oavsiktligt beteende.

Jag har också diskuterat olika kollektiva analyser av AI-etiska principer, inklusive att ha täckt en uppsättning utarbetad av forskare som undersökte och kondenserade essensen av många nationella och internationella AI-etiska principer i en artikel med titeln "The Global Landscape Of AI Ethics Guidelines" (publicerad i Natur), och som min bevakning utforskar kl länken här, vilket ledde till denna keystone-lista:

  • Öppenhet
  • Rättvisa & Rättvisa
  • Icke-ondska
  • Ansvar
  • Integritetspolicy
  • Välgörenhet
  • Frihet & autonomi
  • Litar
  • Hållbarhet
  • Värdighet
  • Solidaritet

Som du direkt kan gissa kan det vara extremt svårt att försöka fastställa detaljerna bakom dessa principer. Ännu mer så är ansträngningen att förvandla dessa breda principer till något helt påtagligt och tillräckligt detaljerat för att användas när man skapar AI-system också en svår nöt att knäcka. Det är lätt att överlag göra lite handviftande om vad AI-etiska föreskrifter är och hur de generellt bör följas, medan det är en mycket mer komplicerad situation i AI-kodningen som måste vara det veritabla gummit som möter vägen.

AI-etikprinciperna ska användas av AI-utvecklare, tillsammans med de som hanterar AI-utvecklingsinsatser, och även de som i slutändan arbetar med och utför underhåll av AI-system. Alla intressenter under hela AI-livscykeln för utveckling och användning anses vara inom ramen för att följa de etablerade normerna för etisk AI. Detta är en viktig höjdpunkt eftersom det vanliga antagandet är att "endast kodare" eller de som programmerar AI:n är föremål för att följa AI-etikbegreppet. Som tidigare nämnts krävs det en by för att utforma och sätta in AI, och för vilken hela byn måste vara bevandrad i och följa AI-etiska föreskrifter.

Låt oss också se till att vi är på samma sida om arten av dagens AI.

Det finns ingen AI idag som är kännande. Vi har inte det här. Vi vet inte om sentient AI kommer att vara möjligt. Ingen kan lämpligen förutsäga om vi kommer att uppnå sentient AI, och inte heller om sentient AI på något sätt mirakulöst spontant kommer att uppstå i en form av beräkningskognitiv supernova (vanligtvis kallad singulariteten, se min bevakning på länken här).

Den typ av AI som jag fokuserar på består av den icke-kännande AI som vi har idag. Om vi ​​ville spekulera vilt om kännande AI, den här diskussionen kan gå i en radikalt annan riktning. En kännande AI skulle förmodligen vara av mänsklig kvalitet. Du skulle behöva tänka på att den kännande AI är den kognitiva motsvarigheten till en människa. Mer så, eftersom vissa spekulerar att vi kan ha superintelligent AI, är det tänkbart att sådan AI kan bli smartare än människor (för min utforskning av superintelligent AI som en möjlighet, se täckningen här).

Låt oss hålla saker mer jordnära och överväga dagens beräkningslösa AI.

Inse att dagens AI inte kan "tänka" på något sätt i nivå med mänskligt tänkande. När du interagerar med Alexa eller Siri kan samtalskapaciteten tyckas likna mänsklig kapacitet, men verkligheten är att den är beräkningsmässig och saknar mänsklig kognition. Den senaste eran av AI har i stor utsträckning använt maskininlärning (ML) och djupinlärning (DL), som utnyttjar matchning av beräkningsmönster. Detta har lett till AI-system som ser ut som mänskliga benägenheter. Samtidigt finns det inte någon AI idag som har ett sken av sunt förnuft och inte heller något av det kognitiva förundran med robust mänskligt tänkande.

ML/DL är en form av beräkningsmönstermatchning. Det vanliga tillvägagångssättet är att man samlar ihop data om en beslutsuppgift. Du matar in data i ML/DL-datormodellerna. Dessa modeller försöker hitta matematiska mönster. Efter att ha hittat sådana mönster, om så hittas, kommer AI-systemet att använda dessa mönster när det möter ny data. Vid presentationen av nya data tillämpas mönstren baserade på "gamla" eller historiska data för att göra ett aktuellt beslut.

Jag tror att ni kan gissa vart detta är på väg. Om människor som har fattat mönstrade beslut har införlivat ogynnsamma fördomar, är oddsen att data speglar detta på subtila men betydelsefulla sätt. Machine Learning eller Deep Learning beräkningsmönstermatchning kommer helt enkelt att försöka matematiskt efterlikna data i enlighet därmed. Det finns inget sken av sunt förnuft eller andra kännande aspekter av AI-tillverkad modellering i sig.

Dessutom kanske AI-utvecklarna inte inser vad som händer heller. Den mystiska matematiken i ML/DL kan göra det svårt att ta bort de nu dolda fördomarna. Du skulle med rätta hoppas och förvänta dig att AI-utvecklarna skulle testa för de potentiellt begravda fördomarna, även om detta är svårare än det kan verka. Det finns en stor chans att det även med relativt omfattande tester kommer att finnas fördomar inbäddade i mönstermatchningsmodellerna för ML/DL.

Du skulle kunna använda det berömda eller ökända ordspråket om skräp-in skräp-ut. Saken är den att detta är mer besläktat med fördomar-in som smygande blir infunderade när fördomar nedsänkt i AI. Algoritmen för beslutsfattande (ADM) för AI blir axiomatiskt laddat med orättvisor.

Inte bra.

Låt oss återgå till vårt fokus på AI-system som används i olämpliga eller möjligen direkta felaktiga syften och hur det relaterar till den nyligen publicerade studien om KKP-lojalitet.

Två primära överväganden kommer att tänka på:

1) Denna AI-instans är en del av ett större pågående mönster av förvirrande AI-användning och därför olycksbådande och ögonöppnande för vad som äger rum

2) Katten kan släppas ut ur påsen så att om AI som denna anammas i ett land kan den lätt spridas till andra länder också

Börja med den första punkten om att denna instans av AI är en del av ett pågående mönster.

En särskilt viktig grund för att bli särskilt störd av denna speciella studie är att den är en del av ett större mönster av hur AI siktar på att användas av vissa. Om detta var den enda sådan studie som någonsin genomförts, skulle vi kanske bli lite upprörda av den. Icke desto mindre skulle det förmodligen inte ge genklang med sådan glöd som vi nu ser.

Detta är kanske droppet av en tum längs med något som kommer att gå ur hand.

Som rapporterats i nyheterna är Kina välkänt för att ha insisterat på utsvävande lojalitet mot KKP. Dessutom har olika sätt etablerats eller håller på att etableras för att säkerställa att människor indoktrineras i den statliga doktrinen. Det har citerats exempel på tidigare studier som försöker ta fram AI-algoritmer som kan mäta tankeförhållandena för partimedlemmar (se Kina-stödda Studietider under 2019 som nämnde dessa ansträngningar).

Du kanske minns att vicepresident Mike Pence 2018 höll ett tal vid Hudson Institute och betonade att "Kinas härskare syftar till att implementera ett orwellskt system som bygger på att kontrollera praktiskt taget alla aspekter av mänskligt liv" (detta var en referens till KKP:s genomförande av ett socialt kreditvärderingssystem, ett ämne för framstående kontroverser). Du kan lätt hävda att denna nyligen genomförda KKP-studie är ytterligare ett steg i den riktningen.

Vi vet inte när eller om det sista halmstrået kommer att knäcka kamelens rygg, så att dessa engångsstudier förvandlas till utbredda AI-baserade övervakningssystem.

Den andra punkten som är värd att uppmärksamma är att vi inte kan anta att denna typ av AI bara kommer att begränsas till Kina. I grund och botten är det störande att ha den här typen av AI-användning i Kina som kan bli utbredd i sig, men andra länder kan göra detsamma.

När AI:n för detta sägs vara redo för bästa sändningstid, kommer det sannolikt inte att ta mycket för andra länder att besluta att de vill implementera det också. Katten kommer ur påsen. Vissa länder kommer förmodligen att använda denna AI på ett direkt förtryckande sätt och inte försöka ge några anspråk om att göra det. Andra länder kan tyckas försöka använda denna typ av AI för vad som verkar vara fördelaktiga syften, av vilka det i slutändan finns en nackdel som nästan kommer att vara oundviklig.

Att föreslå att den här typen av AI kanske bara kommer att antas när den ses som redo för bästa sändningstid är lite av en felaktig benämning. Det kanske inte gör någon större skillnad om AI:n kan fungera säkert på detta sätt. AI:n kan användas som en cover story, se min förklaring på länken här. Oavsett vad AI faktiskt kan åstadkomma, är tanken att AI kan vara ett praktiskt sken för att ta fram folkövervakning och system för att mäta och säkerställa absolut lojalitet mot myndigheter.

Vid denna tidpunkt av denna tunga diskussion, skulle jag slå vad om att du är sugen på några illustrativa exempel som kan visa upp detta ämne. Det finns en speciell och säkerligen populär uppsättning exempel som ligger mig varmt om hjärtat. Du förstår, i min egenskap av expert på AI inklusive de etiska och juridiska konsekvenserna, blir jag ofta ombedd att identifiera realistiska exempel som visar upp AI-etiska dilemman så att ämnets något teoretiska natur kan lättare förstås. Ett av de mest suggestiva områdena som på ett levande sätt presenterar detta etiska AI-problem är tillkomsten av AI-baserade äkta självkörande bilar. Detta kommer att fungera som ett praktiskt användningsfall eller exempel för omfattande diskussioner om ämnet.

Här är en anmärkningsvärd fråga som är värd att överväga: Belyser tillkomsten av AI-baserade äkta självkörande bilar något om AI-missbruk, och i så fall vad visar detta upp?

Tillåt mig en stund att packa upp frågan.

Observera först att det inte finns en mänsklig förare inblandad i en äkta självkörande bil. Tänk på att äkta självkörande bilar körs via ett AI-körsystem. Det finns inte ett behov av en mänsklig förare vid ratten, och det finns inte heller en bestämmelse för en människa att köra fordonet. För min omfattande och pågående bevakning av Autonomous Vehicles (AV) och speciellt självkörande bilar, se länken här.

Jag vill ytterligare klargöra vad som menas när jag hänvisar till riktiga självkörande bilar.

Förstå nivåerna av självkörande bilar

Som ett förtydligande är sanna självkörande bilar sådana där AI kör bilen helt på egen hand och det inte finns någon mänsklig hjälp under köruppgiften.

Dessa förarlösa fordon betraktas som nivå 4 och nivå 5 (se min förklaring på denna länk här), medan en bil som kräver en mänsklig förare för att dela köransträngningen vanligtvis anses vara på nivå 2 eller nivå 3. De bilar som delar på köruppgiften beskrivs som halvautonoma och innehåller vanligtvis en mängd olika automatiserade tillägg som kallas ADAS (Advanced Driver-Assistance Systems).

Det finns ännu inte en riktig självkörande bil på nivå 5, och vi vet ännu inte ens om detta kommer att vara möjligt att uppnå, inte heller hur lång tid det kommer att ta att komma dit.

Under tiden försöker nivå 4-ansträngningarna gradvis få lite dragkraft genom att genomgå mycket smala och selektiva offentliga vägförsök, även om det finns kontroverser om huruvida denna testning ska vara tillåten i sig (vi är alla liv-eller-död-marsvin i ett experiment. som äger rum på våra motorvägar och motorvägar, menar vissa, se min täckning på denna länk här).

Eftersom semi-autonoma bilar kräver en mänsklig förare, kommer antagandet av dessa typer av bilar inte att vara märkbart annorlunda än att köra konventionella fordon, så det finns inte mycket nytt i sig att täcka om dem om detta ämne (men som du kommer att se på ett ögonblick är de punkter som nästa görs generellt tillämpliga)

För semi-autonoma bilar är det viktigt att allmänheten måste varnas om en oroande aspekt som har uppstått på sistone, nämligen att trots de mänskliga förarna som fortsätter att lägga upp videor om sig själva somna vid ratten i en nivå 2 eller nivå 3 bil , vi måste alla undvika att bli vilseledda till att tro att föraren kan ta bort sin uppmärksamhet från köruppgiften medan han kör en semi-autonom bil.

Du är den ansvariga parten för fordonets körning, oavsett hur mycket automatisering som kan kastas till nivå 2 eller nivå 3.

Självkörande bilar och missbruk av AI

För nivå 4 och 5 verkliga självkörande fordon finns det ingen mänsklig förare som är involverad i köruppgiften.

Alla passagerare kommer att vara passagerare.

AI kör körningen.

En aspekt att omedelbart diskutera innebär det faktum att AI involverad i dagens AI-körsystem inte är känslig. Med andra ord är AI helt och hållet en kollektiv datorbaserad programmering och algoritmer, och kan med säkerhet inte resonera på samma sätt som människor kan.

Varför är denna extra tonvikt om att AI inte är känslig?

Eftersom jag vill understryka att när jag diskuterar AI-drivsystemets roll tillskriver jag inte mänskliga egenskaper till AI. Tänk på att det idag finns en pågående och farlig tendens att antropomorfisera AI. I grund och botten tilldelar människor mänsklig känsla till dagens AI, trots det obestridliga och obestridliga faktum att ingen sådan AI finns än.

Med det förtydligandet kan du föreställa dig att AI-körsystemet inte på något sätt "vet" om körningens aspekter. Körning och allt det innebär kommer att behöva programmeras som en del av hårdvaran och mjukvaran i den självkörande bilen.

Låt oss dyka in i den myriad av aspekter som kommer att spela om detta ämne.

För det första är det viktigt att inse att inte alla AI självkörande bilar är likadana. Varje biltillverkare och självkörande teknikföretag tar sitt tillvägagångssätt för att utforma självkörande bilar. Som sådan är det svårt att göra svepande uttalanden om vad AI-körsystem kommer att göra eller inte.

Dessutom, närhelst man säger att ett AI-körsystem inte gör någon speciell sak, kan detta senare övertas av utvecklare som faktiskt programmerar datorn att göra just det. Steg för steg förbättras och utökas AI-körsystemen gradvis. En befintlig begränsning idag kanske inte längre existerar i en framtida iteration eller version av systemet.

Jag hoppas att det ger en tillräcklig litania av varningar för att ligga till grund för det jag ska berätta.

Låt oss skissa på ett självkörande bilscenario som kan dra nytta av AI på skissartade eller felaktiga sätt.

Jag ska dela med dig av några AI-baserade självkörande bilförgreningar som kan få dig att rysa och bli störd. Det är aspekter som nästan ingen diskuterar just nu. Jag har upprepade gånger tagit upp saken, även om jag öppet erkänner att tills vi har en utbredd adoption av självkörande bilar, kommer vi inte att få mycket uppmärksamhet när det gäller att samhället är oroligt eller upprört över vad som idag ser ut som bara abstrakta föreställningar .

Är du redo?

Vi börjar med lite grundläggning.

AI-baserade självkörande bilar kommer att vara utrustade med videokameror, förnuftigt så. Detta gör att den självkörande bilen kan ta emot videobilder av körscenen. I sin tur är AI-körsystemet som körs ombord på datorerna i den självkörande bilen avsett att beräkningsmässigt undersöka den insamlade videon och ta reda på var vägen är, var närliggande bilar finns, var fotgängare finns osv. Jag inser att jag reciterar självkörande bilar 101 fundamentals.

Det finns videokameror monterade på utsidan av det autonoma fordonet och de pekar utåt. Dessutom kan du i stort sett räkna med att det kommer att finnas videokameror på eller inne i fordonet som siktar inåt i det inre av den självkörande bilen. Varför då? Enkelt, eftersom det kommer att finnas många viktiga användningsområden för video som fångar händelserna i det autonoma fordonet.

När du åker en tur i en självkörande bil behöver du inte längre vara förare. Vad gör du då i en självkörande bil?

En sak du kan göra är att interagera med andra hemma eller på kontoret. Där är du på väg till jobbet, vilket kommer att säga ta en timmes körtid med den självkörande bilen, och du kan redan börja din arbetsdag genom att göra en Zoom-liknande interaktiv realtidssession online. De kan se dig, på grund av att kamerorna pekar inåt i den självkörande bilen. Du kan se dem på kanske en LED-skärm inne i den självkörande bilen. I slutet av dagen, när du går hem, kanske du gör en liknande interaktiv videodiskussion med dina barn när de börjar få sina läxor gjorda för kvällen.

En annan användning skulle vara att ta lektioner. Nu när du inte behöver slösa bort din tid på att köra, kan du förvandla den döda tiden i en självkörande bil till att förbättra dina färdigheter eller få en certifiering eller examen. Via kamerorna som pekar inåt kan din instruktör se dig och diskutera hur det går med din träning.

Ytterligare en användning skulle vara att försöka se till att förare i självkörande bilar inte blir amok. I en människodriven bil är föraren en vuxen närvaro som vanligtvis hindrar förarna från att göra galna saker som att markera interiören med graffiti. Vad kommer att hända med AI-baserade självkörande bilar? Vissa oroar sig för att förare kommer att välja att riva upp fordonens inre. För att försöka förhindra detta kommer samåkningsföretaget som använder de självkörande bilarna sannolikt att använda inåtriktade videokameror för att övervaka vad människor gör medan de är inne i det autonoma fordonet.

Jag antar att du är övertygad om att vi kommer att ha videokameror som pekar in i det inre av självkörande bilar, förutom de kameror som pekar utåt för att urskilja körscenen.

Du är nu redo för det jag har kallat det strövande ögat, se min analys på länken här.

Tänk först på videokamerorna som pekar utåt.

Vart den självkörande bilen än går kommer den potentiellt att kunna spela in vad kamerorna ser. En självkörande bil som lyfter någon från deras hem och tar dem till mataffären kommer att korsa ett område och videon kommer att spela in inte bara vägbanan utan också allt annat som händer inom synhåll. En far och son som leker på deras gårdsplan. En familj som sitter på sin veranda. På och vidare går det.

Just nu har vi så få självkörande bilar på allmänna vägar att denna förmåga att fånga video av dagliga aktiviteter är relativt knapp och oväsentlig.

Föreställ dig att vi i slutändan uppnår säkra och utbredda självkörande bilar. Tusentals av dem. Kanske miljoner. Vi har cirka 250 miljoner människodrivna bilar i USA idag. Så småningom kommer de att i stort sett ersättas av självkörande bilar eller helt enkelt inte användas längre, och vi kommer till övervägande del att ha självkörande bilar på våra vägar. Dessa självkörande bilar drivs av AI och kan därför roama i princip 24×7. Inga vilopauser, inga badrumspauser.

Videodata kunde laddas upp från dessa självkörande bilar via OTA (Over-The-Air) elektroniska nätverksanslutningar. Självkörande bilar kommer att använda OTA för att få de senaste AI-programuppdateringarna nedladdade till fordonet. Dessutom kan OTA användas för att ladda upp data från den självkörande bilen till en molnbaserad databas.

Sammantaget skulle det vara möjligt att sy ihop denna uppladdade data. Med sömmarna kan du potentiellt pussla ihop det dagliga gået för alla som klev ut vilken dag som helst på alla platser som i stor utsträckning använde självkörande bilar.

Det är det rörande ögat som jag har varnat för.

Vi kan nu anpassa KKP-studien till denna typ av förmåga. Anta att en regering har tillgång till all denna insamlade videodata. De kunde sedan använda en AI-baserad ansiktsigenkänningsalgoritm för att fastställa vart du tog vägen, vid vilken tid på dygnet, under dina dagliga resor i livet. Dessutom kunde de förmodligen använda sin "lojalitets" AI-baserade analysator för att se om du verkade ha en lojal blick i ansiktet eller inte.

Föreställ dig bara att du en tisdag eftermiddag gick för att få en smörgås på en lokal restaurang. Självkörande bilar passerade på vägbanan. Alla de många videorna fångade dig när du gick din fem minuters promenad för att få en bit mat. Uppgifterna laddades upp till en centraliserad databas. Regeringen körde sitt AI-ansiktsigenkänningsprogram på data.

Det visade sig att AI:n "fastställde" att du hade en illojal blick i ansiktet.

Kanske hände denna illojala blick bara för ett ögonblick. Du väntade i ett gathörn på att ljuset skulle ändras så att du kunde korsa gatan till matstället. I det ögonblicket fick du ett litet ryck av avsky över att du var tvungen att vänta för länge på Walk-symbolen. Var detta kanske en indikation på din illojalitet mot regeringen?

Ja, AI:n kalkylmässigt beräknad, du var rikligt illojal vid det ögonblicket. När du kommer hem den natten har regeringen ordnat med din arrestering.

Men vänta, det finns mer.

Kom ihåg att videokameror också pekar inåt.

Samma tisdag, när du åkte till jobbet i en självkörande bil, fångade videokamerorna ditt varje ögonblick. Detta laddades upp till en centraliserad databas. AI-mjukvaran som analyserar ansiktsmönster för illojalitet gjorde en beräkningsmönsterundersökning av dina ansiktsuttryck under resan till kontoret.

Vid ett tillfälle tittade du nonchalant utanför det autonoma fordonet och märkte en byggnadsarbetare som delvis blockerade vägbanan och fick AI-körsystemet att sakta ner den självkörande bilen. För en bråkdels sekund registrerade ditt ansikte en blick av hån för den här byggnadsarbetaren som saktade ner trafiken.

Analysen av AI-ansiktsmönster tolkade detta som ett tecken på illojalitet mot regeringen.

Två strejker mot dig på en dag.

Du lever på tunn is.

Huruvida AI har "rätt" eller "fel" när det gäller att kunna bestämma din lojalitet är naturligtvis nästan oväsentligt i detta sammanhang. Kontentan är att AI har införts för detta ändamål. Människorna som använder AI:n kanske bryr sig om AI:n är till någon lämplig användning för den här typen av uppgifter. AI tillåter statlig kontroll, oavsett den tekniska giltigheten i sig.

Det täcker ansiktsskanningen.

Om vi ​​så småningom har någon form av bärbara kostnadseffektiva enheter för att göra (påstådd) hjärnvågsskanning, kan detta säkert också inkluderas i självkörande bilar. Videokameror är en säker sak nu. Möjligheten att ha hjärnvågsavsökningsenheter av den här kalibern finns inte i korten just nu, men är helt klart något som man ser för framtiden.

För min utforskning av hur en regering kan försöka ta över en befolkning genom att ta kontroll över självkörande bilar, se länken här. En liknande möjlighet finns att en illvillig aktör kan försöka göra detsamma, se länken här. Dessa är inte avsedda att vara skrämseltaktik när det gäller bevakning av dessa relaterade ämnen, och istället en heads-up om vikten av cybersäkerhet och andra försiktighetsåtgärder vi måste som ett samhälle försöka vidta angående uppkomsten av allestädes närvarande självkörande bilar och andra autonoma fordon.

Slutsats

Jag skulle snabbt vilja täcka ytterligare en aspekt om AI som används för att fastställa lojalitet som jag tror är ett något separat ämne, men som vissa tweets och sociala medier har besvärat.

Jag nämnde tidigare att vi inte har sentient AI och vi vet inte om eller när vi kommer att göra det. Låt oss hysa tanken att vi kommer att ha kännande AI. Tänk i så fall på följande scenario.

Vi väljer via icke-kännande AI att införa en utbredd användning av AI som beräkningsmässigt avgör om människor är lojala mot sin regering, genom att använda ansiktsskanningar, hjärnvågsskanningar och så vidare. Detta drivs helt av och används av människor med auktoritet. Det är det oroande scenariot som jag bara några ögonblick tidigare har beskrivit.

Dags att öka satsningen.

AI blir kännande. Vi har nu potentiellt gett denna kännande AI en utbredd förmåga att antagligen identifiera lojalitet och illojalitet hos människor. En illgärande AI som överväger att utplåna människor kan använda denna förmåga för att bestämma att människor verkligen kommer att vara illojala och bör förstöras helt. Eller kanske bara de människor som visar upp en indikation på illojalitet via sitt ansikte eller sina tankar ska skrotas särskilt.

En annan vinkel är att AI vill förslava människor, se min diskussion på länken här.

Vi verkar ha gett AI en perfekt gåva för att utföra det uppdraget. Den befintliga infrastrukturen som vi sätter på plats gör att AI kan hålla en noggrann koll på oss människor. De som verkar ha uttryckt en illojal ansiktsindikation eller tänkt på AI-överherrarna kommer att känna AI:s vrede.

Jag inser att jag sa att det här är en ökning. Jag är inte säker på att så är fallet. Det verkar för mig att om vi har AI-överherrar som direkt bestämmer vårt öde kontra mänskliga överherrar som kanske använder ett AI-system för att bestämma lojalitet, ja, inget av förslagen verkar särskilt önskvärt.

En sista kommentar för tillfället.

Den romerske forskaren och filosofen Marcus Tullius Cicero konstaterade att det inte finns något ädlare, inget mer vördnadsvärt än lojalitet. Vi kanske låter AI gå före oss och bli ett verktyg för att värva och säkerställa "lojalitet" med fruktansvärda medel.

Ett värdefullt medvetet skäl att sätta AI-etik överst på vår att göra-lista.

Källa: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- intyg-som-kan-förskugga-förtryckande-autonoma-system/