AI-etik och AI-inducerad psykologisk inokulering för att hjälpa människor med desinformation

Vad ska vi göra åt den enorma mängden desinformation och desinformation?

Det hela blir bevisligen värre och värre för varje dag som går.

Kanske kan artificiell intelligens (AI) komma till vår räddning. Ja, det stämmer, vi kanske kan utnyttja den fördelaktiga användningen av AI för att klara av vår obevekliga tsunami av desinformation och desinformation. Vi kan göra klokt i att försöka göra det. Alla möjliga lösningar skulle tyckas vara värda att söka efter.

För övrigt vill jag omedelbart erkänna och notera att AI utan tvekan kommer att också vara en del av problemet också. Det råder ingen tvekan om att människor lätt kan utnyttja AI för att generera desinformation och desinformation. Dessutom kan AI smygande användas för att få desinformation och desinformation att framstå som otroligt giltig och lura människor att tro att den presenterade informationen är lockande korrekt och saklig. En avgjort sorglig sida av vad AI ger till bordet. Vi kommer att återkomma till denna negativa gåta mot slutet av denna diskussion.

Låt oss för nu ta på oss våra smileys och utforska hur AI är fördelaktigt för att få desinformation och desinformation till sina mäktiga knän. En viktig underström kommer att vara att allt detta sammanfaller med viktiga delar av AI-etiken. Min spaltbevakning av AI-etik och etisk AI är pågående och omfattande, inklusive länken här och länken här, bara för att nämna några.

Tänk på dessa hörnstenssätt som AI kan vara en särskilt användbar allierad i kriget mot desinformation och desinformation:

  • Stanna vid start: AI kan användas för att upptäcka och försöka ta bort desinformation och desinformation innan den går lös
  • Filtrera innan ses: AI kan användas för att filtrera bort desinformation och desinformation så att du inte behöver oroa dig för att se den
  • Förbered dig på att vara immun: AI kan användas för att stärka din beredskap och förmåga att kämpa med desinformation och desinformation (känt något formellt som ett slags psykologisk inokulering)
  • Övriga

Den först listade punkten innebär att man försöker stoppa desinformation och desinformation så tidigt som möjligt, innan innehållet kommer ut i världen.

Detta är ett mycket problematiskt tillvägagångssätt. Vissa skulle högljutt hävda att detta kan vara ett Big Brother-försök att undertrycka yttrandefriheten. Hur långt skulle denna AI kunna gå? Kan det hindra människor från att fritt uttrycka sina åsikter? Detta kusligt kan bli en hal backe av AI som i slutändan blir den värsta mardrömmen av onda resultat som oskyldigt började med de bästa avsikter.

Jag är säker på att du får bilden.

Den andra punkten är lite mer moderat och föreslår att vi skulle kunna använda AI för att filtrera innehåll åt oss.

Du kanske har en AI-filterbot som skannar alla dina inkommande dataflöden från olika nyheter och andra källor. AI:n är skräddarsydd för att fånga upp all desinformation eller desinformation som passar dina personliga kriterier. I ett sådant scenario är det alltså inte en Big Brother-censursituation. Du kontrollerar AI och hur den filtrerar din verkliga inkorg med information för din räkning.

Låter ganska bra.

Det finns dock några anmärkningsvärda farhågor.

Till exempel är vi redan mycket polariserade i våra åsikter och denna användning av AI kan göra den polariseringen djupare och mörkare. Föreställ dig att med denna smarta AI som fungerar nonstop 24×7, behöver du aldrig någonsin se en smula information som du har klassificerat som potentiellt desinformation och desinformation. Ditt polariserade perspektiv är nu nästan garanterat intakt. Hela dagen lång och närhelst du försöker ta en titt på informationen som väntar på din uppmärksamhet, är den alltid helt förvald och ingen chans att titta på så kallad desinformation och desinformation.

Jag säger att desinformation och desinformation kan vara så kallade eftersom det finns en enorm mängd kontroverser om vad som faktiskt utgör desinformation och desinformation. Vissa förståsigpåare insisterar på att det finns en absolut grund för att fastställa vad som är desinformation och vad som är desinformation. Det finns rätt och fel. Allt kan beräknas utan att ta fel att något är antingen desinformation eller desinformation.

Det är inte alla som ser saker som så tydliga.

Den ökända på-eller-av ömsesidigt uteslutande dikotomikontrasten sägs vara en missvisande sinnesstämning. En persons desinformation kanske inte betraktas som desinformation till en annan person. Likaså om desinformation. Påståendet är att desinformation och desinformation varierar i termer av natur och omfattning. Att försöka klassificera all information definitivt i den ena eller den andra högen är mycket svårare än att vifta med händerna.

Kontentan är att den andra punkten om att använda AI som en filtreringsmekanism har sina kompromisser. Det råder ingen tvekan om att AI kommer att användas alltmer på detta sätt. Samtidigt måste vi vara medvetna om de utmaningar som sådan AI kommer att ställa till med. AI som ett filter för desinformation och desinformation är inte någon silverkula eller slam dunk.

Det tar oss till den tredje punkten, nämligen möjligheten att använda AI för att göra människor bättre på att hantera desinformation och desinformation.

Jag tvivlar på att du förmodligen har hört mycket om denna tredje väg att använda AI i detta sammanhang. Det har precis börjat dyka upp. Du är nu i framkant av något som sannolikt kommer att växa och gradvis tas i bruk. Tänk dock på att när denna popularitet ökar, kommer kontroverser om huruvida det är ett lämpligt tillvägagångssätt också att bli mycket synliga.

En del av problemet är att AI i viss mån används för det som vissa på ett nedsättande sätt skulle hänvisa till som spela sinnespel med människor.

Det verkar olycksbådande.

Detta för oss också till AI-etikens område.

Allt detta relaterar också till nyktert framväxande oro kring dagens AI och särskilt användningen av Machine Learning och Deep Learning som en form av teknik och hur den används. Du förstår, det finns användningar av ML/DL som tenderar att innebära att AI antropomorfiseras av allmänheten i stort, och tror eller väljer att anta att ML/DL antingen är kännande AI eller nära (det är det inte). Dessutom kan ML/DL innehålla aspekter av beräkningsmönstermatchning som är oönskade eller direkt olämpliga, eller olagliga ur etiska eller juridiska perspektiv.

Det kan vara användbart att först klargöra vad jag menar när jag hänvisar till AI övergripande och även ge en kort översikt över Machine Learning och Deep Learning. Det råder en hel del förvirring om vad artificiell intelligens innebär. Jag skulle också vilja presentera föreskrifterna för AI-etiken för er, som kommer att vara särskilt integrerade i resten av denna diskurs.

Ange posten om AI

Låt oss se till att vi är på samma sida om arten av dagens AI.

Det finns ingen AI idag som är kännande.

Vi har inte det här.

Vi vet inte om sentient AI kommer att vara möjligt. Ingen kan på ett lämpligt sätt förutsäga om vi kommer att uppnå sentient AI, inte heller om sentient AI på något sätt mirakulöst spontant kommer att uppstå i en form av beräkningskognitiv supernova (vanligtvis kallad The Singularity, se min bevakning på länken här).

Inse att dagens AI inte kan "tänka" på något sätt i nivå med mänskligt tänkande. När du interagerar med Alexa eller Siri kan samtalskapaciteten tyckas likna mänsklig kapacitet, men verkligheten är att den är beräkningsmässig och saknar mänsklig kognition. Den senaste eran av AI har i stor utsträckning använt maskininlärning och djupinlärning, som utnyttjar matchning av beräkningsmönster. Detta har lett till AI-system som ser ut som mänskliga benägenheter. Samtidigt finns det inte någon AI idag som har ett sken av sunt förnuft och inte heller något av det kognitiva förundran med robust mänskligt tänkande.

En del av problemet är vår tendens att antropomorfisera datorer och speciellt AI. När ett datorsystem eller AI verkar agera på ett sätt som vi associerar med mänskligt beteende, finns det en nästan överväldigande drift att tillskriva mänskliga egenskaper till systemet. Det är en vanlig mental fälla som kan gripa tag i även den mest oförsonliga skeptiker om chanserna att nå sentiment.

Till viss del är det därför AI-etik och etisk AI är ett så avgörande ämne.

AI-etikens föreskrifter får oss att förbli vaksamma. AI-teknologer kan ibland bli upptagna av teknik, särskilt optimering av högteknologi. De överväger inte nödvändigtvis de större samhälleliga konsekvenserna. Att ha en AI-etik och att göra det integrerat med AI-utveckling och fältarbete är avgörande för att producera lämplig AI, inklusive bedömningen av hur AI-etik antas av företag.

Förutom att använda AI-etiska föreskrifter i allmänhet, finns det en motsvarande fråga om vi bör ha lagar som styr olika användningar av AI. Nya lagar håller på att samlas runt på federal, statlig och lokal nivå som rör omfattningen och karaktären av hur AI bör utformas. Ansträngningen att utarbeta och anta sådana lagar sker gradvis. AI-etik fungerar åtminstone som ett övervägt stopp, och kommer nästan säkert till viss del att direkt införlivas i dessa nya lagar.

Var medveten om att vissa bestämt hävdar att vi inte behöver nya lagar som täcker AI och att våra befintliga lagar är tillräckliga. De varnar för att om vi stiftar några av dessa AI-lagar, kommer vi att döda guldgåsen genom att slå ner på framsteg inom AI som ger enorma samhällsfördelar. Se till exempel min bevakning på länken här.

I tidigare spalter har jag täckt de olika nationella och internationella ansträngningarna att skapa och anta lagar som reglerar AI, se länken här, till exempel. Jag har också täckt de olika AI-etiska principerna och riktlinjerna som olika nationer har identifierat och antagit, inklusive till exempel FN:s insatser såsom UNESCO-uppsättningen av AI-etik som nästan 200 länder antog, se länken här.

Här är en användbar nyckelstenslista över etiska AI-kriterier eller egenskaper för AI-system som jag tidigare har utforskat noggrant:

  • Öppenhet
  • Rättvisa & Rättvisa
  • Icke-ondska
  • Ansvar
  • Integritetspolicy
  • Välgörenhet
  • Frihet & autonomi
  • Litar
  • Hållbarhet
  • Värdighet
  • Solidaritet

Dessa AI-etiska principer är uppriktigt tänkta att användas av AI-utvecklare, tillsammans med de som hanterar AI-utvecklingsinsatser, och även de som i slutändan arbetar med och underhåller AI-system. Alla intressenter under hela AI-livscykeln för utveckling och användning anses vara inom ramen för att följa de etablerade normerna för etisk AI. Detta är en viktig höjdpunkt eftersom det vanliga antagandet är att "endast kodare" eller de som programmerar AI:n är föremål för att följa AI-etikbegreppet. Som tidigare betonats här, krävs det en by för att utveckla och sätta in AI, och för vilken hela byn måste vara bevandrad i och följa AI-etiska föreskrifter.

Låt oss hålla saker jordnära och fokusera på dagens beräkningslösa AI.

ML/DL är en form av beräkningsmönstermatchning. Det vanliga tillvägagångssättet är att man samlar ihop data om en beslutsuppgift. Du matar in data i ML/DL-datormodellerna. Dessa modeller försöker hitta matematiska mönster. Efter att ha hittat sådana mönster, om så hittas, kommer AI-systemet att använda dessa mönster när det möter ny data. Vid presentationen av nya data tillämpas mönstren baserade på "gamla" eller historiska data för att göra ett aktuellt beslut.

Jag tror att ni kan gissa vart detta är på väg. Om människor som har fattat mönstrade beslut har införlivat ogynnsamma fördomar, är oddsen att data speglar detta på subtila men betydelsefulla sätt. Machine Learning eller Deep Learning beräkningsmönstermatchning kommer helt enkelt att försöka matematiskt efterlikna data i enlighet därmed. Det finns inget sken av sunt förnuft eller andra kännande aspekter av AI-tillverkad modellering i sig.

Dessutom kanske AI-utvecklarna inte inser vad som händer heller. Den mystiska matematiken i ML/DL kan göra det svårt att ta bort de nu dolda fördomarna. Du skulle med rätta hoppas och förvänta dig att AI-utvecklarna skulle testa för de potentiellt begravda fördomarna, även om detta är svårare än det kan verka. Det finns en stor chans att det även med relativt omfattande tester kommer att finnas fördomar inbäddade i mönstermatchningsmodellerna för ML/DL.

Du skulle kunna använda det berömda eller ökända ordspråket om skräp-in skräp-ut. Saken är den att detta är mer besläktat med fördomar-in som smygande blir infunderade när fördomar nedsänkt i AI. Algoritmen för beslutsfattande (ADM) för AI blir axiomatiskt laddat med orättvisor.

Inte bra.

Jag tror att jag nu har satt scenen för att tillräckligt diskutera AIs roll som ett sätt att framkalla psykologisk inokulering relaterad till att hantera desinformation och desinformation.

Att komma in i människors sinnen

Låt oss börja med grunderna eller grunderna bakom desinformation och desinformation.

I allmänhet hänvisar desinformation till falsk eller vilseledande information.

Desinformation är ungefär densamma men består av det tillagda elementet av uppsåt. Vi tolkar normalt information som desinformation när det är informationen avsedd att felinformera.

Jag kan säga att klockan för närvarande är 10 på natten, vilket låt oss säga är falskt eftersom klockan verkligen är midnatt. Om jag hade sagt till dig klockan 10 som en aning och inte försökte lura, skulle vi vanligtvis säga att jag hade felinformerat dig. Jag hade förmedlat felaktig information. Kanske var jag lat eller så trodde jag verkligen att klockan var 10. Å andra sidan, om jag hade nämnt klockan 10 för att jag avsiktligt ville lura dig att tro att klockan var 10 och att jag visste att klockan faktiskt var midnatt, skulle detta kunna sägas vara en form av desinformation .

En anmärkningsvärd aspekt av information totalt sett är att vi vanligtvis kan sprida information och därmed kan information bli något utbredd. Information kan verkligen flöda som vatten, i vid bemärkelse.

Jag säger att klockan är 10 på natten. Du har nu just den informationen. Du kanske skriker högt till en grupp människor i närheten att klockan är 10 på natten. De har nu också samma information. Kanske tar några av dessa människor in på sina mobiltelefoner och ringer andra för att berätta att klockan är 10. Sammantaget kan information spridas eller delas och ibland göras så snabbt medan i andra fall göras det långsamt.

På sätt och vis kan du hävda att information kan bli viral.

Det finns ett myntat ord eller en terminologi som du kanske inte särskilt har sett eller använt som hjälper till att beskriva detta fenomen med information som blir viral, ordet är infodemisk. Detta ord är en mashup av både information och att vara en epidemi. I stort sett är en infodemi förknippad med omständigheter som involverar spridning av desinformation eller desinformation. Uppfattningen är att falsk eller vilseledande information kan bli viral, på ett oönskat sätt, liknande den oönskade spridningen av sjukdomar eller sjukdomar.

I exemplet om att klockan var 10 på natten var detta skenbara faktum en information som spreds till den närliggande gruppen människor. De sprider i sin tur fakta till andra. Om klockan 10 var fejk så spreds just detta fall av desinformation eller desinformation till många andra. De kanske inte vet att informationen var desinformation eller möjligen desinformation.

Jag litar på att alla dessa definitioner och grunder verkar förnuftiga och att du är ombord så här långt.

Bra, låt oss fortsätta.

Jag har lett dig lite i smyg in i något som upptar en hel del fascination och även ångest. Kontentan är att det utan tvekan finns rimliga paralleller mellan vad sjukdomar gör viralt och vad desinformation eller desinformation gör viralt.

Alla håller inte med om dessa påstådda paralleller. Ändå är de spännande och värda att ta hänsyn till.

Låt mig utarbeta.

Du förstår, vi kan försöka utnyttja den praktiska liknelsen att hänvisa till människoburna sjukdomar och sjukdomar som sprider sig, genom att göra det för att jämföra en liknande möjlighet med spridningen av desinformation och desinformation. För att försöka stoppa spridningen av sjukdomar, kan vi sträva efter att tidigt upptäcka och försöka begränsa en framväxande sjuk källa till den potentiella spridningen av sjukdomen. Ett annat tillvägagångssätt för att hantera en spridande sjukdom skulle vara att skydda sig mot att få den genom försiktig användning av att bära en mask eller skyddsutrustning. Ett tredje tillvägagångssätt kan bestå av att ta vaccinationer för att försöka bygga upp din immunitet relaterad till sjukdomen.

Vi har nu fullbordat cirkeln genom att samma tillvägagångssätt för att hantera sjukdomar uttryckligen kan liknas vid att hantera desinformation och desinformation. Jag nämnde tidigare att det pågår liknande ansträngningar för att använda artificiell intelligens i syfte att försöka hantera desinformation och desinformation, särskilt (som nämnts tidigare):

  • Stanna vid start: AI kan användas för att upptäcka och försöka ta bort desinformation och desinformation innan den går lös
  • Filtrera innan ses: AI kan användas för att filtrera bort desinformation och desinformation så att du inte behöver oroa dig för att se den
  • Förbered dig på att vara immun: AI kan användas för att stärka din beredskap och förmåga att kämpa med desinformation och desinformation (känt något formellt som ett slags psykologisk inokulering)
  • Övriga

Den tredje aspekten kommer att vara av största intresse här.

Såhär är det.

Vi vet att sjukdomar vanligtvis drabbar människokroppen. Med analogin om hur desinformation och desinformation uppstår, skulle vi kunna föreslå att felaktig information drabbar mänskliga sinnet. Ja, du kan förmodligen komma i kontakt med desinformation eller desinformation som flödar in i ditt sinne. Desinformationen eller desinformationen kan eventuellt korrumpera eller förgifta ditt sätt att tänka.

En människokropp kan vaccineras för att försöka förbereda sig för att komma i kontakt med sjukdomar. En stor fråga uppstår om vi kan göra samma sak för det mänskliga sinnet. Är det möjligt att försöka inokulera sinnet så att när desinformation eller desinformation kommer till ditt sinne att du är redo för det och har inokulerats därefter?

Ett studieområde känt som psykologisk inokulering hävdar att sinnet verkligen kan inokuleras i betydelsen av att vara redo att hantera desinformation eller desinformation.

Tänk på denna beskrivning i en nyligen genomförd forskningsstudie om psykologisk inokulering och vad som ibland kallas att göra prebunking:

  • "Att avslöja desinformation är också problematiskt eftersom korrigering av desinformation inte alltid omintetgör dess effekter helt, ett fenomen som kallas den fortsatta påverkanseffekten. Följaktligen, i motsats till debunking, har prebunking fått framträdande plats som ett sätt att förebyggande bygga motståndskraft mot förväntad exponering för desinformation. Detta tillvägagångssätt är vanligtvis grundat på inokuleringsteori. Ympningsteorin följer en medicinsk immuniseringsanalogi och hävdar att det är möjligt att bygga psykologiskt motstånd mot oönskade övertalningsförsök, ungefär som att medicinska inokulationer bygger fysiologiskt motstånd mot patogener" (Vetenskap Förskott, 24 augusti 2022, "Psykologisk inokulering förbättrar motståndskraften mot felaktig information på sociala medier" av medförfattarna Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje och Stephan Lewandowsky).

För att återgå till mitt exempel om att klockan är 10 på natten, anta att jag tidigare hade berättat för dig att den angivna tiden ibland inte är den faktiska tiden. Du har hädanefter en form av inokulering att vara försiktig med påstådda tider. Denna inokulering har förberett dig för att komma i kontakt med påstådda tider som är desinformation eller desinformation.

Om jag hade varnat dig för flera år sedan om att angivna tider inte är faktiska tider, finns det en chans att du kanske inte tänker på den där varningen för länge sedan. Den tidigare inokuleringen har alltså (ska vi säga) slitit ut. Min vaccination för dig kanske behöver förstärkas.

Det finns också en chans att inokuleringen inte var tillräckligt specifik för att du skulle kunna använda den när det behövs. Om jag för flera år sedan hade varnat dig för angivna tider kontra faktiska tider, kan det vara för brett. Inokuleringen kanske inte fungerar i det specifika fallet att du fick besked om klockan 10. I den meningen borde kanske min ympning ha varit att man ska vara försiktig när en påstådd tid på klockan 10 används. Givetvis är inokuleringarna vid sjukdomar ungefär desamma, ibland mycket specifika för kända åkommor medan de i andra fall är ett brett spektrum.

En ofta citerad forskningsstudie gjord 1961 om psykologisk inokulering av William McGuire från Columbia University anses i allmänhet nu vara en klassiker inom detta studieområde. Du kan vara av intresse för dessa nyckelpunkter som han gjorde vid den tiden:

  • "En sådan generaliserad immunisering kan härröra från någon av två mekanismer. Förexponering kan chocka personen till att inse att de "truismer" han alltid har accepterat verkligen är sårbara, vilket provocerar honom att utveckla ett försvar av sin tro, med resultatet att han är mer motståndskraftig mot de starka motargumenten när de kommer. Alternativt kan vederläggningarna som är involverade i förexponeringen göra att alla senare presenterade motargument mot tron ​​verkar mindre imponerande" (William McGuire, "Resistance To Persuasion Conferred By Active And Passive Prior Refutation Of The Same And Alternative Counterarguments", Journal of Abnormal and Socialpsykologi, 1961).

Tycker du att denna analogi med inokulering och immunisering är en användbar och lämplig jämförelse med desinformation och desinformation?

Vissa gör det, andra inte.

För denna diskussion, acceptera att premissen är rimlig och lämplig.

Hur ska vi försöka inokulera eller immunisera människors sinnen?

Vi kan få folk att läsa böcker som kan upplysa deras sinnen. Vi kan berätta för dem om det, eller låta dem titta på videor eller lyssna på ljudband. Etc.

Och vi kanske använder AI för att göra detsamma.

Ett AI-system kan utformas för att vara din inokulator. När du börjar gå online, som att titta på Internet, kan en AI-baserad app förbereda dig för din onlineresa. AI:n kan ge dig en pytteliten mängd desinformation som är märkt som sådan, vilket gör att du kan inse att du är på väg att se något som är avsiktligt falskt.

Efter exponering för denna AI-matade desinformation, börjar ditt sinne nu att klara av desinformation eller desinformation som du kan stöta på i naturen på Internet. Ditt sinne har beretts. Voila, du ser en blogg på Internet som ger ett påstått faktum att främmande varelser från Mars redan finns här på jorden och gömmer sig i klarsynt, men denna skenbara desinformation eller desinformation avvisas lätt av ditt sinne på grund av den tidigare inokuleringen (ja, då igen, kanske det är sanningsenligt och de är verkligen här!).

Hur som helst, jag hoppas att du nu kan urskilja hur det kommer sig att AI kan hjälpa till att inokulera eller immunisera människor med avseende på desinformation eller desinformation.

Olika AI-appar utvecklas som kommer att fungera som inokulatorer för desinformation eller desinformation. AI kan försöka tillhandahålla inokulering som är bred och ger en övergripande sken av immunisering. AI skulle också kunna utformas för mer specifika former av inokulering. Dessutom kan AI:n arbeta på en personlig basis som är anpassad till dina speciella behov eller intressen. Avancerad AI i det här utrymmet kommer också att försöka bestämma din toleransnivå, mentala absorptionshastighet, retentionskapacitet och andra faktorer när du så att säga komponerar och presenterar så kallade immuniseringsskott.

Verkar ganska praktiskt.

AI Som Dangerous Mind Games Player

AI som används på detta sätt skulle vid första anblicken verka ganska praktiskt (hej, jag nämnde det för bara en sekund sedan).

Det finns en mängd potentiella nackdelar och problem som är oroande och kanske skrämmande.

I mina spalter diskuterar jag ofta AI-kapaciteten med dubbla användningsområden, se till exempel länken här. AI kan vara en viktig bidragsgivare till mänskligheten. Tyvärr är AI också behäftad med massor av faror och olyckliga fallgropar.

När det gäller AI som inskolare, låt oss överväga dessa demonstrativa AI-etikrelaterade frågor:

  • Biverkningar av människor
  • Icke-reagerande reaktioner från människor
  • AI felinriktning
  • AI undermålsättning
  • Cyberbrott mot AI
  • Övriga

Vi kommer kortfattat att utforska dessa farhågor.

Biverkningar av människor

Antag att en människa som får denna typ av AI-baserad inokulering har en negativ reaktion eller ger en negativ effekt.

Personen kan misstolka immuniseringen och plötsligt bli okänslig för all information de får. De blockerar all information. AI:n har på något sätt fått dem att kasta ut barnet med badvattnet (ett gammalt talesätt, kanske värt att gå i pension). Istället för att bara försöka hantera desinformation och desinformation har personen reagerat genom att besluta att all information alltid är falsk.

Jag tror inte att vi vill att folk ska gå så överdrivet.

Det finns en mängd biverkningar som AI kan framkalla. Detta beror delvis på hur AI försökte utföra inokuleringen, men vi måste också lägga en del av frågan vid fötterna på den människa som fick inokuleringen. De kan ha reagerat på vilda eller bisarra sätt att andra som fått samma AI-ympning inte gjorde det.

Återigen kan du likna detta med analogin med vaccinationer för sjukdomar.

Kort sagt, det kommer att vara viktigt att när sådana AI-insatser används, de görs på ansvarsfulla sätt som försöker minimera negativa effekter. Det bör också finnas en uppföljande aspekt av AI för att försöka fastställa om en biverkning har inträffat. Om det upptäcks en biverkning bör AI:n utformas för att försöka hjälpa personen i deras negativa reaktion och försöka övervinna eller lindra reaktionen.

Icke-responsiva reaktioner av människor

En annan möjlighet är att den AI-matade ympningen inte har någon inverkan på den mottagande personen.

En person får en AI-baserad inokulering relaterad till desinformation eller desinformation. Medan de flesta människor "får det" och blir immuniserade, finns det säkert människor som inte kommer att reagera alls. De lär sig ingenting av inokuleringen. De svarar inte på AI-försöket att immunisera dem för antingen all eller vissa typer av desinformation eller desinformation.

Återigen är detta jämförbart med vaccinationer för sjukdomar.

AI borde utformas för att kämpa med en sådan omständighet.

AI felsökning

Föreställ dig att en AI hoppas kunna immunisera människor angående ett visst ämne som vi kommer att säga är ämne X, men det visar sig att ämne Y istället tas upp. AI:n är felinriktad.

Detta är ett dubbelt problem. För det första har ämne X då inte behandlats som det förmodade och efterlängtade syftet med AI-inokulatorn. För det andra är ämnet Y täckt men vi kanske inte ville att folk skulle vaccineras mot det ämnet.

Oops.

Frågor finns i överflöd. Kunde detta ha förhindrats från att hända? Om det händer, kan vi ångra ämnet Y-immunisering? Kan vi försöka täcka ämnet X-ympning, eller kommer personen att vara mindre mottaglig eller icke-mottaglig på grund av felinriktningen av AI:n ursprungligen?

Många problematiska bekymmer uppstår.

AI-undermål

En AI ger en inokulering om ämnet Z. Personerna som får inokuleringen verkar ha en minimal eller nästan försumbar reaktion. Ympningen var otillräcklig för att få fäste.

Du kan bli frestad att snabbt hävda att detta är lätt att lösa. Allt du behöver göra är att upprepa inokuleringen. Kanske, kanske inte.

AI-ympningen kan vara av ett så begränsat värde att oavsett om du har människor som upplever det hundra gånger så är resultatet fortfarande ett marginellt resultat. Du kan behöva öka inokuleringen istället för att bara upprepa den.

Föreställ dig under tiden att ett försök görs att öka den AI-matade inokuleringen men detta går överbord. Den boostade versionen orsakar hyperreaktioner. Usch, vi har kommit från ont till värre.

Cyberbrott mot AI

Föreställ dig att AI används flitigt för att hjälpa människor att inokuleras från desinformation och desinformation.

En allmän tillit tar tag av människor. De vet och förväntar sig att AI kommer att ge dem utdrag som kommer att öppna deras ögon för vad som kallas desinformation och desinformation.

Allt är väl och bra, verkar det som.

En evil-doer kan på något sätt göra ett cyberintrång på AI. De tvingar smyg in i AIn viss önskad desinformation som de vill att folk ska tro inte är desinformation. AI:n är arrangerad för att få den faktiska desinformationen att framstå som sann information. Den sanna informationen framstår också som desinformation.

Folk är helt snookerade. De desinformeras av AI. Ovanpå det, eftersom de hade blivit beroende av AI:n, och på grund av att de litade på att AI:n gjorde rätt sak, faller de i krok, lina och sjunker för denna brutna AI. Utan tvekan.

Med tanke på hur lätt desinformation kan spridas ytterligare, kan ondsutövaren njuta av att existensen av denna typ av AI är deras enklaste och snabbaste sätt att få sina lömska lögner att gå runt i världen. Ironiskt nog, naturligtvis, att ha utnyttjat AI-inokulatorn för att i huvudsak sprida sjukdomen.

Slutsats

Ska vi låta AI spela sinnespel med oss?

Kan AI för desinformation och inokulering av desinformation vara en hotfull trojansk häst?

Du kan göra ett reellt argument för att oroa dig för en sådan mardröm.

Andra hånar en sådan möjlighet. Människor är smarta nog att veta när AI försöker lura dem. Folk kommer inte att falla för sådana dribblingar. Bara idioter skulle bli vilseledda av sådan AI. Det är de vanliga replikerna och motargumenten.

Jag vill inte verka mindre än helt beundrande av människor och den mänskliga naturen, jag skulle bara föreslå att det finns gott om indikationer på att människor kan falla för AI som vilseleder dem.

Det finns en ännu större fråga som kanske hägrar över allt detta.

Vem tillverkar AI:n och hur avgör AI:n algoritmiskt vad som anses vara desinformation och desinformation?

En hel eldstrid pågår idag i världen i stort om vad som är specifikt desinformation och desinformation. Vissa hävdar att fakta är fakta, så det kan aldrig uppstå någon förvirring om vad korrekt information kontra otillbörlig information är. Men djävulen sitter ibland i detaljerna, det är helt klart.

En sista kommentar för nu. Det berömda Abraham Lincoln sa: "Du kan lura alla människor en del av tiden och några av människorna hela tiden, men du kan inte lura alla människor hela tiden."

Kommer AI som används för att hjälpa inokuleringen av mänskligheten från desinformation och desinformation vara ett viktigt verktyg för att säkerställa att inte alla människor kan luras hela tiden? Eller kan det användas för att lura fler av människorna mer av tiden?

Tiden får avgöra.

Och det är förvisso ingen desinformation eller desinformation.

Källa: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/