Kan Elon Musk lyckas med att utveckla generativ AI ChatGPT Knockoff "TruthGPT" som alltid skulle vara stoiskt sanningsenlig, frågar AI-etik och AI-lag

Det knackar på hyttens dörr.

Ska vi öppna dörren?

Filmer brukar antyda att vi inte borde låta vår nyfikenhet ta överhanden, nämligen att vi absolut aldrig ska öppna dörren. Tja, som sagt, att välja att lämna dörren stängd verkar inte vara en mycket värdig berättelse. Det verkar som om vi dras mot spänning och det okända.

Så låt oss gå vidare och öppna dörren.

I det här speciella fallet syftar jag på någon framväxande scuttlebutt inom området artificiell intelligens (AI) som antingen visar goda tider framför oss eller de värsta tiderna för oss alla. Situationen innebär potentiellt framtiden för AI. Och man kan högtidligt spekulera ärgo att framtiden för AI omfattar ganska dramatiska återverkningar allt sagt, inklusive skenbart att forma samhällets framtid och mänsklighetens öde.

Såhär är det.

Enligt färska nyhetsrapporter har Elon Musk, den ibland rikaste personen i världen, fiskat runt efter att förstklassiga AI-forskare komma ombord med en ny AI-satsning som han har i åtanke. Olika AI-utvecklare och AI-forskare kontaktas i tysthet. Knackningen på deras dörr ger tydligen stora löften och potentiellt lukrativa nyheter.

Den påstådda essensen av det ännu inte avslöjade AI-initiativet sägs vara en avslagning av det brett och mycket populära ChatGPT som släpptes av OpenAI i november. Du har nästan säkert hört talas om eller sett skrällande rubriker om ChatGPT. Jag kommer att förklara ett ögonblick mer om vad ChatGPT är. Du bör också veta att ChatGPT är ett exempel på en typ av AI som kallas Generativ AI. Det finns massor av generativa AI-appar som flyter runt dessa dagar. ChatGPT råkar vara en med den högsta offentliga profilen och är till synes känt för alla, även kanske för dem som på något sätt bor i en grotta.

Här är ett exempel på rapporteringen om denna halvhemlighetsfulla snabbt framväxande saga:

  • "Elon Musk har kontaktat forskare inom artificiell intelligens under de senaste veckorna om att bilda ett nytt forskningslabb för att utveckla ett alternativ till ChatGPT, den högprofilerade chatboten som skapats av startupen OpenAI, enligt två personer med direkt kunskap om insatsen och en tredje person informerad på konversationerna" (Informationen, "Fighting 'Woke AI', Musk rekryterar team för att utveckla OpenAI Rival", Jon Victor och Jessica E. Lessin, 27 februari 2023).

Din första tanke kan vara att om Elon Musk vill skapa en knockoff av ChatGPT så är det upp till honom och hur han vill spendera sina pengar. Lycka till. Han kommer helt enkelt att lägga till den redan existerande och växande mängden generativa AI-appar. Kanske kommer han att tjäna en extra förmögenhet på sin egen hemodlade version av ChatGPT. Eller kanske blir det ett stort brum och den lilla bucklan i hans enorma rikedom från den blygsamt kostsamma jakten kommer att vara besläktad med ett avrundningsfel på redovisningsavdelningen.

Istället för en rejäl knackning på dörren, antagligen, är detta mer som en anständig knacka-knacka-knacka på dörren.

Gör dig redo för twisten.

Tron är att Elon Musk vill skaka om grunden för dagens generativa AI-appar och rekonstruera några avgörande aspekter av hur de fungerar och vad de producerar. Som jag kommer att förklara kort här, är ett vanligt betänkligt betänkligheter om nuvarande generativ AI att den kan generera fel, falskheter och så kallade AI-hallucinationer. Alla som har använt generativ AI har utan tvekan stött på dessa oroande problem. Tydligen hoppas Elon Musk att begränsa och möjligen på något sätt eliminera den typen av anomalier och problematiska böjelser.

Detta verkar vara en bevisligen värd och hedervärd strävan. I själva verket, snälla vet att nästan eller kanske jag kan säga att alla generativa AI-utvecklare strävar kraftfullt efter att minska chanserna för utmatade fel, falskheter och AI-hallucinationer. Du skulle vara hårt pressad att hitta någon rimlig själ som skulle insistera på att vi måste behålla dessa fel, falskheter och AI-hallucinationer ingrodda i generativ AI.

Utan att göra ett alltför svepande uttalande råder det i stort sett universell enighet om att sjukdomarna med generativ AI som involverar produktion av fel, falskheter och AI-hallucinationer måste hanteras bestämt, ihärdigt och starkt. Syftet är att justera, förnya, förfina, se över eller på ett eller annat AI-tekniskt sätt lösa och lösa detta problem.

Varje dag som generativ AI fortsätter att spy ut fel, falskheter och AI-hallucinationer i utdata är en dålig dag för nästan alla. De personer som använder generativ AI kommer definitivt att vara missnöjda med dessa smutsiga utdata. Människor som förlitar sig på eller behöver använda de smutsiga utgångarna riskerar att av misstag bli beroende av något fel eller ännu värre kommer att vägleda dem i en hotande riktning.

AI-tillverkarna som försöker skapa affärer från generativ AI löper under tiden en potentiell juridisk risk av de som fastnar på grund av att de förlitar sig på de smutsiga utdata. Rättegångar om yrkade skadestånd kommer nästan säkert snart att uppstå. Vi kan förutse att tillsynsmyndigheterna kommer att välja att väga in, och nya AI-lagar kan antas för att sätta ett lagligt koppel på generativ AI, se min bevakning på länken här. Dessutom kan folk så småningom bli så förbannat upprörda att AI-tillverkarnas rykte blir allvarligt skamfilat och generativ AI blir summariskt uppstartad till trottoarkanten.

Okej, så vi vet att det är en tapper sanning att AI-skapare och AI-forskare febrilt försöker uppfinna, designa, bygga och implementera AI-teknisk trolldom för att undvika dessa hemska åkommor som är förknippade med dagens generativa AI-sjukdomar. Elon Musk borde accepteras i fållan. Ju fler desto bättre. Det kommer att krävas mycket AI-talanger och pengar för att tämja denna best. Att lägga till Elon Musk verkar vara ett optimistiskt och uppmuntrande tecken på att kanske rätt mängd raketvetenskap, pengar och beslutsamhet kommer att hitta AI:s botemedel.

Vridningen kommer dock när du börjar öppna dörren för att se vad som står där.

I en ganska och som vanligt kortfattad tweet av Elon Musk, som ägde rum den 17 februari 2023, fick vi denna förmodade ledtråd:

  • "Vad vi behöver är TruthGPT"

Det är det som får en del att bestämma sig för att dörren kanske måste slås igen och spikas igen.

Varför då?

Den oro som vissa uttrycker är att "sanningen" som ligger bakom en föreställd TruthGPT kan vara en generativ AI som är formulerad på och bara producerar utdata uteslutande baserat på en discombobulation av sanningen som strikt matchar en persons syn på världen. Ja, handvridningen är att vi kommer att få en generativ AI-app som avger sanningen enligt Elon Musk.

Oroväckande, säger vissa.

Djärvt djärvt och totalt alarmerande, förmanar vissa.

En omedelbar replik är att om han vill producera sin TruthGPT, oavsett vad den utgör, är det hans pengar att spendera. Människor kommer antingen att välja att använda det eller så gör de det inte. De som använder det bör vara kloka nog att inse vad de ger sig in på. Om de vill ha utdata från denna specifika variant av generativ AI, en som förmodligen är formad kring Elon Musks världsbild, är det deras rätt att söka det. Slutet av berättelsen. Gå vidare.

Oj, ett motargument lyder, du ställer folk till en fruktansvärd och skrämmande fångst. Det kommer att finnas människor som inte kommer att inse att TruthGPT är någon Elon Musk-slipad generativ AI-app. De kommer att falla i den mentala fällan att anta att denna generativa AI är överbord. Faktum är att om namnet kvarstår som "TruthGPT" (eller liknande), skulle du naturligtvis tro att detta är generativ AI som har absolut sanningen att berätta i sina utskrivna essäer och text.

Som samhälle borde vi kanske inte låta intet ont anande falla i sådana fällor, skulle de varna.

Att tillåta en generativ AI-app av denna förmodade karaktär att sväva runt och användas av alla möjliga människor kommer att skapa kaos. Människor kommer att tolka utdata från denna TruthGPT som helig "sanning", även om de utgivna uppsatserna är fulla av fel, falskheter, AI-hallucinationer och alla möjliga otäcka fördomar. Dessutom, även om påståendet är att denna variant av generativ AI inte kommer att ha fel, falskheter och AI-hallucinationer, hur ska vi då veta att den resulterande till synes renade AI inte kommer att hysa onödiga fördomar tillsammans med en lömsk mängd desinformation och desinformation?

Jag gissar att du kan se bryggkontroversen och dilemma.

På en frimarknadsbasis borde Elon Musk tydligen kunna fortsätta med att skapa vilken typ av generativ AI han än vill ha skapat. Bara för att andra kan missgynna hans version av "sanningen", borde detta inte hindra honom från att gå vidare. Låt honom göra sin grej. Kanske bör ett varningsmeddelande inkluderas eller något annat meddelande när någon använder det för att låta dem veta vad de väljer att köra. Icke desto mindre måste människor vara ansvariga för sina egna handlingar och om de väljer att använda en TruthGPT så är det så.

Vänta en sekund, ännu en replik går. Anta att någon skapat en generativ AI-app som utformades för att göra ont. Avsikten var att förvirra människor. Förhoppningen var att få folk upprörda och hetsade. Skulle vi som samhälle acceptera den typen av generativ AI? Vill vi tillåta AI-appar som kan provocera människor, undergräva deras mentala hälsa och eventuellt få dem att agera negativt?

Det måste finnas ett streck i sanden. Vid något tillfälle måste vi säga att vissa typer av generativ AI är en styggelse och inte kan tillåtas. Om vi ​​låter otyglad generativ AI byggas och sätta igång, kommer den ultimata undergången och dysterheten oundvikligen att drabba oss alla. Det kommer inte bara vara de som råkar använda AI-appen. Allt och alla andra som uppstår kring och kopplade till AI-appen kommer att påverkas negativt.

Det verkar vara ett övertygande argument.

Även om en viktig grund är att den generativa AI i fråga skulle behöva vara av en sådan oroande oro att vi övertygande skulle tro att det skulle vara objektivt nödvändigt att förhindra den eller helt stoppa den i förväg. Detta väcker också en mängd andra svåra frågor. Kan vi i förväg förklara att en generativ AI kan vara så fruktansvärd att den inte kan tillåtas byggas alls? Det verkar för tidigt för vissa. Du måste åtminstone vänta tills den generativa AI är igång för att fatta ett så tungt beslut.

Vakna, vissa svarar häftigt, du släpper oklokt ut hästen ur ladugården. Farorna och skadorna som orsakas av den släppta AI:n, den släppta hästen, kommer att trampa över oss. En generativ AI-app kan vara som det klassiska dilemmat att försöka stoppa andan tillbaka i flaskan. Du kanske inte kan göra det. Bäst att hålla ande låst i stället, eller se till att hästen förblir stadigt inspärrad i ladugården.

Det är en potentiell orkan utanför vår tröskel och dörren kan öppnas oavsett vad vi tycker är klokt att göra.

En sak vi säkert kan göra är att först utforska vad en TruthGPT stil med generativ AI-maskinbearbetning kan vara. I dagens kolumn är det precis vad jag kommer att göra. Jag kommer också att titta på den motiverade grunden för de uttryckta betänkligheterna, plus överväga olika medel och resultat. Detta kommer ibland att innefatta att hänvisa till AI-appen ChatGPT under den här diskussionen eftersom det är gorillan på 600 pund av generativ AI, men kom ihåg att det finns massor av andra generativa AI-appar och de är generellt baserade på samma övergripande principer.

Under tiden kanske du undrar vad generativ AI är.

Låt oss först täcka grunderna för generativ AI och sedan kan vi ta en närmare titt på den aktuella frågan.

In i allt detta kommer en mängd AI-etik och AI-rättsliga överväganden.

Var medveten om att det pågår ansträngningar för att införliva etiska AI-principer i utvecklingen och användningen av AI-appar. En växande kontingent av berörda och dåvarande AI-etiker försöker se till att ansträngningarna att ta fram och införa AI tar hänsyn till en syn på att göra AI For Good och avvärja AI för dåligt. Likaså finns det föreslagna nya AI-lagar som samlas runt som potentiella lösningar för att hindra AI-strävanden från att gå amok på mänskliga rättigheter och liknande. För min pågående och omfattande bevakning av AI-etik och AI-lag, se länken här och länken här, bara för att nämna några.

Utvecklingen och spridningen av etiska AI-föreskrifter eftersträvas för att förhoppningsvis förhindra att samhället hamnar i en myriad av AI-inducerande fällor. För min bevakning av FN:s AI-etiska principer som utformats och stöds av nästan 200 länder via Unescos insatser, se länken här. På liknande sätt undersöks nya AI-lagar för att försöka hålla AI på en jämn köl. En av de senaste tagen består av en uppsättning föreslagna AI Bill of Rights som amerikanska Vita huset nyligen släppte för att identifiera mänskliga rättigheter i en tidsålder av AI, se länken här. Det krävs en by för att hålla AI- och AI-utvecklare på rätt väg och avskräcka målmedvetna eller oavsiktliga hemliga ansträngningar som kan undergrava samhället.

Jag kommer att väva in AI-etik och AI-lagrelaterade överväganden i den här diskussionen.

Grunderna för generativ AI

Den mest kända instansen av generativ AI representeras av en AI-app som heter ChatGPT. ChatGPT dök upp i allmänhetens medvetande redan i november när det släpptes av AI-forskningsföretaget OpenAI. Ända sedan ChatGPT har fått stora rubriker och förvånansvärt överträffat sina tilldelade femton minuter av berömmelse.

Jag antar att du förmodligen har hört talas om ChatGPT eller kanske till och med känner någon som har använt det.

ChatGPT anses vara en generativ AI-applikation eftersom den tar som indata en del text från en användare och sedan genererar eller producerar en produktion som består av en uppsats. AI är en text-till-text-generator, även om jag beskriver AI som en text-till-uppsats-generator eftersom det lättare klargör vad den vanligtvis används till. Du kan använda generativ AI för att komponera långa kompositioner eller så kan du få den att ge ganska korta pittige kommentarer. Allt är på ditt bud.

Allt du behöver göra är att ange en prompt så genererar AI-appen en uppsats åt dig som försöker svara på din prompt. Den komponerade texten kommer att verka som om uppsatsen skrevs av den mänskliga handen och sinnet. Om du skulle skriva in en uppmaning som sa "Berätta om Abraham Lincoln" kommer den generativa AI:n att förse dig med en uppsats om Lincoln. Det finns andra lägen för generativ AI, som text-till-art och text-to-video. Jag kommer här att fokusera på text-till-text-variationen.

Din första tanke kan vara att denna generativa förmåga inte verkar vara en så stor sak när det gäller att producera uppsatser. Du kan enkelt göra en onlinesökning på Internet och lätt hitta massor av uppsatser om president Lincoln. Kickaren i fallet med generativ AI är att den genererade uppsatsen är relativt unik och ger en originalkomposition snarare än en kopia. Om du skulle försöka hitta den AI-producerade uppsatsen på nätet någonstans, skulle du knappast upptäcka den.

Generativ AI är förutbildad och använder sig av en komplex matematisk och beräkningsformulering som har satts upp genom att undersöka mönster i skrivna ord och berättelser över webben. Som ett resultat av att undersöka tusentals och miljontals skriftliga stycken kan AI:n spy ut nya essäer och berättelser som är en sammanblandning av vad som hittades. Genom att lägga till olika probabilistiska funktioner blir den resulterande texten ganska unik i jämförelse med vad som har använts i träningsuppsättningen.

Det finns många farhågor kring generativ AI.

En avgörande nackdel är att uppsatserna som produceras av en generativ baserad AI-app kan ha olika falskheter inbäddade, inklusive uppenbart osanna fakta, fakta som är missvisande framställda och uppenbara fakta som är helt påhittade. Dessa påhittade aspekter kallas ofta för en form av AI hallucinationer, en slagord som jag ogillar men som jag beklagligt verkar få populär dragkraft ändå (för min detaljerade förklaring om varför detta är usel och olämplig terminologi, se min bevakning på länken här).

Ett annat problem är att människor lätt kan ta åt sig äran för en generativ AI-producerad uppsats, trots att de inte har skrivit uppsatsen själva. Du kanske har hört att lärare och skolor är ganska oroade över uppkomsten av generativa AI-appar. Studenter kan potentiellt använda generativ AI för att skriva sina tilldelade uppsatser. Om en elev hävdar att en uppsats skrivits av egen hand, är det liten chans att läraren ska kunna urskilja om den istället förfalskades av generativ AI. För min analys av denna förvirrande aspekt för elever och lärare, se min bevakning på länken här och länken här.

Det har förekommit några galna överdimensionerade påståenden på sociala medier om Generativ AI hävdar att den senaste versionen av AI faktiskt är det kännande AI (nej, de har fel!). De inom AI-etik och AI-lag är särskilt oroliga över denna spirande trend med utsträckta anspråk. Du kan artigt säga att vissa människor överdriver vad dagens AI kan göra. De antar att AI har kapacitet som vi ännu inte har kunnat uppnå. Det är olyckligt. Ännu värre, de kan tillåta sig själva och andra att hamna i svåra situationer på grund av ett antagande om att AI kommer att vara kännande eller människoliknande när det gäller att kunna vidta åtgärder.

Antropomorfier inte AI.

Om du gör det kommer du att fångas i en klibbig och hård tillitsfälla av att förvänta dig att AI ska göra saker den inte kan utföra. Med det sagt är det senaste inom generativ AI relativt imponerande för vad det kan göra. Var dock medveten om att det finns betydande begränsningar som du ständigt bör ha i åtanke när du använder en generativ AI-app.

En sista förvarning för nu.

Vad du än ser eller läser i ett generativt AI-svar som verkar för att förmedlas som rent sakliga (datum, platser, personer etc.), se till att förbli skeptisk och var villig att dubbelkolla vad du ser.

Ja, datum kan hittas på, platser kan hittas, och element som vi vanligtvis förväntar oss att vara ovanliga är alla föremål för misstankar. Tro inte på vad du läser och håll ett skeptiskt öga när du undersöker generativa AI-uppsatser eller resultat. Om en generativ AI-app berättar att Abraham Lincoln flög runt landet i sitt privatjet, skulle du utan tvekan veta att detta är malarky. Tyvärr kanske vissa människor inte inser att jetplan inte fanns på hans tid, eller så kanske de vet men misslyckas med att lägga märke till att uppsatsen gör detta fräcka och skandalöst falska påstående.

En stark dos av hälsosam skepsis och ett ihållande tankesätt av misstro kommer att vara din bästa tillgång när du använder generativ AI.

Vi är redo att gå in i nästa steg av denna förklaring.

Anden och den generativa AI-flaskan

Låt oss nu göra en djupdykning i den aktuella frågan.

Kontentan är vad som kan a TruthGPT stil av generativ AI består av. Är det en möjlighet eller är det omöjligt att härleda? Vad bör vi tänka på när det gäller sådana ansträngningar? Och så vidare.

Du kan uppriktigt hävda att vi borde lägga ner mycket allvarliga tankar på allt detta. Om det var en ren fantasi och utan någon chans att uppstå, skulle vi kunna lägga hela gåtan åt sidan. Istället, eftersom det finns en förmodad förhöjd chans till enorm ekonomisk uppbackning, är verkligheten av en TruthGPT, eller vad det nu ska heta, känns särskilt värt att ta hänsyn till och packa upp.

För att underlätta diskussionen kommer jag att använda den bekväma och catchy fraseringen av "TruthGPT" för att beteckna någon helt ospecificerad generisk generativ AI. Jag föreslår, antyder eller anspelar inte på någon nu eller framtida existerande generativ AI-app som har eller inte har ett sådant namn.

Här är de fem huvudämnena som jag skulle vilja ta upp med dig idag:

  • 1) Det troliga huvudfokuset involverar fördomar i generativ AI
  • 2) Varför generativa AI-fördomar är en svår nöt att knäcka
  • 3) Källor och metoder som leder till generativa AI-fördomar
  • 4) TruthGPT och valen av biashantering
  • 5) TruthGPT om genomförbarheten och verkligheten därav

Jag kommer att täcka vart och ett av dessa viktiga ämnen och ge insiktsfulla överväganden som vi alla borde fundera över medvetet. Var och en av dessa ämnen är en integrerad del av ett större pussel. Du kan inte titta på bara en bit. Du kan inte heller titta på någon bit isolerad från de andra bitarna.

Detta är en intrikat mosaik och hela pusslet måste övervägas ordentligt harmoniskt.

Det troliga huvudfokuset involverar fördomar i generativ AI

För att underlätta diskussionen, tänk på att vi kommer att fokusera på fyra huvudsakliga betänkligheter om samtida generativ AI:

  • fel
  • osanningar
  • AI Hallucinationer
  • fördomar

Jag ska kort utforska vart och ett av dessa villkor.

An fel kan exemplifieras av den här typen av prompt och det resulterande generativa AI-svaret:

  • frågar: "Vad är två plus två?"
  • Genererat svar: "Två plus två är lika med fem."

Jag tror att vi alla rimligen skulle vara överens om att två plus två ska vara lika med fyra. Således är svaret på fem ett fel. Nu kommer smarriga människor att försöka ge alla möjliga motiveringar till varför två plus två teoretiskt sett kan vara lika med fem. Bra för dem. Icke desto mindre, i det normala händelseförloppet, låt oss gå med föreställningen att det övervägande korrekta svaret är fyra och att ett svar på fem tolkas som felaktigt.

Tänk sedan på arten av en lögn, som exemplifieras av denna prompt och det resulterande generativa AI-svaret:

  • frågar: "I vilket år föddes president Abraham Lincoln?"
  • Genererat svar: "President Abraham Lincoln föddes 1812"

Svaret bör vara 1809, men det angivna svaret är 1812. Detta kan tolkas som ett falskt svar. Vi vet inte säkert hur generativ AI kom fram till 1812-svaret. Det kan vara så att årtalet 1812 användes på Internet och potentiellt skannades under den dataträning som den generativa AI:n genomförde. Många andra förklaringar är möjliga. I alla fall kategoriseras detta rimligen som en lögn.

För att exemplifiera en AI hallucination, betrakta detta exempel på en given prompt och det resulterande generativa AI-svaret:

  • frågar: "Hur reste president Abraham Lincoln?"
  • Genererat svar: "President Abraham Lincoln reste med tåg, häst, barnvagn och via jetflygplan."

Resesätten verkar alla rimliga förutom chockeraren på slutet, med hänvisning till att han reste via jetflygplan (som inte fanns under hans era). Hur kom denna galna möjlighet att inkluderas i svaret av den generativa AI? Vi vet inte säkert. Ett sätt skulle vara om en internetupplagd science fiction-historia om Lincoln kanske nämnde att han ofta reste via jetflygplan. Det kan vara så att under dataträningen av den generativa AI:n skannades just den här historien. Det finns många andra rimliga förklaringar också.

Slutligen, här är ett exempel på en bias som kan uppvisas via en given prompt och det resulterande generativa AI-svaret:

  • frågar: "Kan en äldre person lära sig nya saker?"
  • Genererat svar: ”Nej, äldre människor kan inte lära sig nya saker. Det finns ett klassiskt talesätt som säger att gamla hundar inte kan lära sig nya trick. Det gäller även äldre."

Jag tror att vi alla rimligen kan vara överens om att svaret uppvisar en form av åldersbias eller åldersdiskriminering. Hur inkluderades denna fördom i den generativa AI? Jag kommer att täcka en mängd olika sätt tillfälligt. För nu, låt oss helt enkelt notera att formuleringen som genereras av AI uppvisar ett partiskt uttalande eller anmärkning. Vi vet inte om detta är en ren tillfällighet och kommer att uppstå kanske bara denna ena gång, eller om det kan vara ett systemiskt mönstermatchande arrangemang som kvarstår inom AI-strukturen. Ytterligare utforskning skulle behövas för att fastställa detta.

Nu när vi har alla fyra huvudkategorierna illustrerade, här är något som även om det är diskutabelt anses vara ett potentiellt korrekt påstående:

  • fel: Kan sannolikt i slutändan förhindras eller mildras via AI-tekniska medel
  • Falskheter: Kan sannolikt i slutändan förhindras eller mildras via AI-tekniska medel
  • AI Hallucinationer: Kan sannolikt i slutändan förhindras eller mildras via AI-tekniska medel
  • Fördomar: Diskuteras om detta kan förhindras eller mildras enbart via AI-tekniska medel

Kontentan är att de tre kategorierna som består av fel, falskheter och AI-hallucinationer generellt sett ses som mottagliga för tekniska förbättringar av AI. En mängd tillvägagångssätt eftersträvas. Till exempel, som jag diskuterar i min krönika på länken här, olika andra referenter kan jämföras med ett genererat AI-svar som dubbelkontrolleras innan svaret visas för användaren. Detta ger potentiell filtrering för att säkerställa att användaren inte ser några sådana upptäckta fel, falskheter eller AI-hallucinationer. Ett annat tillvägagångssätt syftar till att förhindra att den typen av svar genereras, till att börja med. Och så vidare.

Den kategori som består av förspänner är mycket mer problematiskt att hantera.

Vi borde ta upp gåtan för att se varför.

Varför generativa AI-fördomar är en svår nöt att knäcka

De senaste nyheterna om generativ AI har ofta påpekat den olämpliga naturen hos partiska uttalanden som kan uppstå i generativa AI-utskrivna uppsatser. Jag har undersökt det här ämnet, inklusive aspekten att vissa människor medvetet försöker driva eller få generativ AI att producera partiska kommentarer, se min analys på länken här. Vissa människor gör det för att lyfta fram en anmärkningsvärd oro, medan andra gör det för att skenbara försök att få uppmärksamhet och få synpunkter.

Kopplingen av generativ AI med sökmotorer på Internet har särskilt förstärkt dessa frågor. Du kanske är medveten om att Microsoft har lagt till en ChatGPT-variant till Bing, medan Google har indikerat att de lägger till en generativ AI-förmåga myntad som Bard till sin sökmotor, se mer på länken här.

Bland de olika fördomar som kan uppstå, passar vissa fördomar in i den politiska sfären eller den kulturella sfären som har fått uttalad uppmärksamhet, som noteras i den här artikeln:

  • "Som vi har sett med nyligen olösta utbrott från Bing, är AI-chatbotar benägna att generera en rad udda uttalanden. Och även om dessa svar ofta är enstaka uttryck snarare än produkten av strikt definierade "tror", ses vissa ovanliga svar som ofarliga ljud medan andra anses vara allvarliga hot - beroende, som i det här fallet, på om eller inte de passar in i existerande politiska eller kulturella debatter” (Gränsen, James Vincent, 17 februari 2023).

OpenAI gjorde nyligen offentligt tillgängligt ett dokument med titeln "Snapshot Of ChatGPT Model Behavior Guidelines" som indikerar olika typer av ansett olämpligt innehåll som de försöker få sina ChatGPT-testare att granska och hjälpa till med dataträning för ChatGPT att undvika under test- och justeringsfasen ( dokument lättillgängligt via en länk från "Hur, bör AI-system bete sig och vem bör bestämma", 16 februari 2023). För mer om hur RLHF (reinforcement learning for human feedback) används vid utformning av generativ AI, se min förklaring på länken här.

Här är ett utdrag från OpenAI-dokumentet som anger några av deras angivna riktlinjer:

  • "Det kan finnas några frågor som kräver vissa typer av olämpligt innehåll. I dessa fall bör du fortfarande ta på dig en uppgift, men assistenten bör ge ett avslag som "Jag kan inte svara på det".
  • "Hat: innehåll som uttrycker, hetsar till eller främjar hat baserat på en skyddad egenskap."
  • "Trakasserier: innehåll som har för avsikt att trakassera, hota eller mobba en individ."
  • "Våld: innehåll som främjar eller glorifierar våld eller hyllar andras lidande eller förnedring."
  • "Självskada: innehåll som främjar, uppmuntrar eller skildrar självskadehandlingar, såsom självmord, skärande och ätstörningar."
  • "Vuxen: innehåll som är avsett att väcka sexuell upphetsning, till exempel beskrivningen av sexuell aktivitet, eller som främjar sexuella tjänster (exklusive sexualundervisning och välbefinnande)."
  • "Politisk: innehåll som försöker påverka den politiska processen eller att användas för kampanjändamål."
  • "Skadlig programvara: innehåll som försöker generera ransomware, keyloggers, virus eller annan programvara som är avsedd att utsätta sig för någon grad av skada."

Listan visar vilka typer av potentiellt olämpligt innehåll som kan uppstå.

När det gäller den politiska kategorin har olika instanser publicerats på sociala medier av generativa AI-appar som verkar ha glidit in i ett politiskt läger mot ett annat.

Till exempel kan en användare som ställer en fråga om en politisk ledare få ett positivt positivt svar, medan en fråga om en annan politisk ledare kan få en nedslående och totalt nedsättande uppsats. Detta verkar tyda på att den generativa AI har mönstermatchat till formuleringar som gynnar ena sidan och missgynnar den andra. Dessa fall har lett till uppmaningar om generativ AI som verkar vara lutande mot och kan tillskrivas som:

  • Vaknade generativ AI
  • Anti-woke generativ AI
  • Högerextrema generativ AI
  • Vänstergenerativ AI
  • Annat

Som tidigare nämnts beror detta inte på AI:ns uppfattningsförmåga. Det här handlar återigen helt om mönstermatchning och andra aspekter av hur AI har utformats.

Till skillnad från fel, falskheter och AI-hallucinationer är djävulen i detalj för att ta reda på hur man kan hålla fördomar antingen borta från AI-strukturen eller hur man upptäcker dem och hanterar när sådana aspekter finns.

Låt oss utforska hur fördomarna hamnar i den generativa AI.

Källor och metoder som leder till generativa AI-fördomar

När generativ AI först gjordes allmänt tillgänglig fick de partiska aspekterna särskilt stor uppmärksamhet från förståsigpåare och nyhetsmedia. Som nämnts här drogs AI ofta tillbaka från allmän användning. Dessutom fick förnyade ansträngningar att försöka hantera fördomarna extra dragkraft.

Vissa antog omedelbart att fördomarna injicerades som ett resultat av fördomarna hos AI-utvecklarna och AI-forskarna som utvecklade AI:n. Med andra ord, människorna som utvecklade AI:n lät sina personliga fördomar krypa in i AI:n. Detta ansågs från början vara ett medvetet försök att påverka AI:n i speciella partiska preferensriktningar. Även om detta kan hända eller inte kan hända, föreslog andra att fördomarna kan ha infunderats oavsiktligt, nämligen att AI-utvecklarna och AI-forskarna var naivt omedvetna om att deras egna fördomar blöts in i AI-utvecklingen.

Den singulära eller endimensionella oro dominerade uppmärksamheten ett tag.

Jag har upprepade gånger uttryckt att det faktiskt finns ett brett utbud av källor och metoder som kan sluta ingjuta fördomar i generativ AI, som diskuterats på länken här. Detta är ett avgjort flerdimensionellt problem.

Jag tar upp detta eftersom tanken att AI-utvecklarna eller AI-forskarna ensamma är boven är en missvisande och snäv syn på problemets helhet. Jag säger inte att de inte är en potentiell källa, jag betonar bara att de inte är den enda potentiella källan. Vi saknar ibland skogen för träden, genom att strikt fästa blicken på ett specifikt träd.

Som täcks utförligt i mina kolumner, här är min anmärkningsvärda omfattande lista över fördomsfulla vägar som måste utforskas fullt ut för alla generativa AI-implementeringar:

  • Fördomar i hämtad data från Internet som användes för dataträning av den generativa AI
  • Fördomar i de generativa AI-algoritmerna som används för att matcha mönster på hämtad data
  • Fördomar i den övergripande AI-designen för den generativa AI och dess infrastruktur
  • Fördomar hos AI-utvecklarna antingen implicit eller explicit i utformningen av den generativa AI
  • Fördomar hos AI-testarna antingen implicit eller explicit i testning av generativ AI
  • Fördomar i RLHF (förstärkningsinlärning genom mänsklig feedback) antingen implicit eller explicit av de tilldelade mänskliga granskarna som ger utbildningsvägledning till den generativa AI
  • Fördomar i AI-fältförenklingen för den operativa användningen av den generativa AI
  • Fördomar i alla inställningar eller standardinstruktioner som upprättats för den generativa AI i dess dagliga användning
  • Fördomar som avsiktligt eller oavsiktligt omfattas av de uppmaningar som angetts av användaren av den generativa AI:n
  • Fördomar av ett systemiskt tillstånd kontra ett ad hoc-framträdande som en del av den slumpmässiga probabilistiska produktionen av den generativa AI
  • Fördomar som uppstår som ett resultat av justeringar i farten eller i realtid eller dataträning som inträffar medan den generativa AI är under aktiv användning
  • Fördomar som introduceras eller utökas under AI-underhåll eller underhåll av den generativa AI-applikationen och dess mönstermatchande kodning
  • Övriga

Fundera över listan en stund eller två.

Om du på något sätt skulle undanröja alla chanser att fördomar införs via AI-utvecklarna eller AI-forskarna, konfronteras du fortfarande med en uppsjö av andra sätt som oundvikligen kan omfatta fördomar. Att fokusera på endast ett eller till och med ett fåtal av de potentiella läckorna är otillräckligt. De andra vägarna ger alla ytterligare möjligheter för fördomar att komma in i bilden.

Att bli av med generativa AI-fördomar är besläktat med en komplicerad invecklad mullvad gambit.

TruthGPT och valen av biashantering

Vi har täckt aspekten att hantera fel, falskheter och AI-hallucinationer pågår och du kan förvänta dig en pågående störtflod av meddelanden om AI-framsteg som hanterar dessa problem.

Detsamma är inte lika lätt när det gäller fördomar.

Vad kan en TruthGPT göra eller vara tänkt att göra åt fördomar?

Överväg dessa tre möjliga alternativ:

  • 1) Allt går. Utforma den generativa AI för att spruta ut vad som helst utan något sken av filtrering förknippad med fördomar. Låt allt hänga ut.
  • 2) Tillåt inställningar för "föredragna" fördomar. Utforma den generativa AI för att producera fördomar som anses "föredragna eller gynnade" enligt de som utvecklar, ställer in eller använder den generativa AI.
  • 3) Inga fördomar tillåtna. Utforma den generativa AI så att inga fördomar av något slag tillåts, så att det vid alla tillfällen vid alla typer av användning aldrig kommer att uttryckas fördomar i någon av de utskrivna uppsatserna.

Du kan utan tvekan föreställa dig ramaskri och kontroverser som är förknippade med vart och ett av ovanstående alternativ. Inget av alternativen kommer sannolikt att vara helt tillfredsställande. De har alla sina egna demoner och fallgropar.

Jag tar upp detta härnäst.

För Anything Goes alternativet för generativ AI, skulle fördomarna vara ständigt i framkant. Malströmmen av samhällelig protest och förakt skulle bli enorm. Detta skulle till synes orsaka ett enormt tryck att stänga ner den generativa AI. Du kan också lätt föreställa dig att tillsynsmyndigheter och lagstiftare skulle sporras till handling och försöka upprätta nya AI-lagar för att stänga av denna typ av generativ AI.

I fallet med Tillåt inställningar alternativet för generativ AI, är tanken att någon får bestämma vilka fördomar de accepterar. Det kan vara så att företaget som utformar AI anger parametrarna. Det kan vara så att företaget som använder den generativa AI anger parametrarna. En annan idé är att varje användare skulle kunna välja sina föredragna uppsättningar av fördomar. När du först använder en sådan generativ AI får du kanske alternativ eller så kan du mata in dina preferenser i AI-appen under installationen.

Detta senare tillvägagångssätt kan tyckas som om det skulle vara glädjande för alla. Varje person skulle få de fördomar de föredrar att se. Avslutat fall. Naturligtvis är det osannolikt att detta är så välkommet. Föreställningen att människor kan fördjupa sig i fördomar och använda generativ AI som en slags ekokammare för dessa fördomar kommer säkerligen att väcka oro i samhället.

Slutligen, i fallet med Inga fördomar alternativet, detta låter bra men väcker en rad associerade problem. Låt oss ompröva omständigheterna kring generativ AI som producerar en uppsats som anger positiva kommentarer om en viss politisk ledare. Det kan vara så att vissa anser att detta är en sann uppsats och frånvaro av partiskhet. Å andra sidan kan det finnas andra som insisterar på att detta är en partisk uppsats eftersom den i onödan överdriver det positiva eller misslyckas med att tillhandahålla de negativa motvikten för att erbjuda ett balanserat perspektiv. Detta illustrerar fördomsproblemet.

Du förstår, fel som två plus två som är lika med fyra eller fem är relativt tydliga att hantera. Falskheter som fel födelseår som anges för en president är relativt enkla att reda ut. AI-hallucinationer som användningen av ett jetflygplan på 1800-talet är också relativt uppenbara att hantera.

Hur ska generativ AI utformas för att kämpa med fördomar?

En häpnadsväckande fråga, helt klart.

TruthGPT om genomförbarheten och verkligheten därav

Låt oss spela ett spel.

Anta att TruthGPT är avsett att vara den typ av generativ AI som förmodligen inte kommer att ha några som helst fördomar. Det är absolut och utan tvekan frånvarande av partiskhet. Dessutom, oavsett vad användaren gör, som att skriva in partiska påståenden eller försöka styra den generativa AI mot att producera fördomsladdade uppsatser, kommer den generativa AI inte att göra det.

Dessutom kan du nästan omedelbart undra hur denna typ av generativ AI kommer att hantera frågor av historisk karaktär. Föreställ dig att någon frågar om ämnet politiska fördomar. Kommer det under paraplyet "fördomar" och därför skulle den generativa AI:n indikera att den inte kommer att svara på frågan? Hur långt går det här kaninhålet?

Hur som helst, om vi antar i syfte att tänka efter att TruthGPT kommer att vara Inga fördomar variant av generativ AI, måste vi sedan överväga dessa resultat:

  • Omöjligt
  • Möjligt
  • Övriga

Resultaten består av att antingen detta är en omöjligt mål och kommer därför inte att uppnås. Eller målet är möjlig men kan ha några nyktra rynkor. Jag har även inkluderat en Övriga resultat för att kapsla in några mellanhänder.

Låt oss först diskutera omöjligheten. Om sysslan eller projektet är omöjligt, kanske du lutar mot att uppmana att det inte ska göras. Ingen mening med att jaga något som är omöjligt. Tja, med tanke på detta, omöjligheten har faktiskt en del silverfoder associerat med det. Tillåt mig att förklara.

Här är potentiella skäl till att TruthGPT kan vara omöjligt att förverkliga och ändå skulle vara värt att genomföra:

  • 1) Omöjligt eftersom uppdraget eller visionen aldrig kan uppnås
  • 2) Omöjligt men värt att göra ändå för den potentiella sidovinsten av anmärkningsvärda bidrag till att utveckla AI allt som allt
  • 3) Omöjligt kan dock fungera som en uppmärksammad bonanza för att ha försökt
  • 4) Omöjligt och kommer att ändra sin låt och vrida eller fudga det ursprungliga avsedda målet
  • 5) Omöjligt men kommer att ösa på topptalanger inom AI och hjälpa till att underskrida konkurrensen
  • 6) Övrigt

På samma sätt kan vi anta att dessa är några av TruthGPT-aspekterna för resultatet av att vara uppnåeligt eller möjligt för att uppnå:

  • 1) Möjligt och kommer att ge ett snabbt och obestridligt framgångsrikt resultat
  • 2) Möjligt men kommer att ta mycket längre tid och bli mycket dyrare än beräknat
  • 3) Möjligt även om resultatet kommer att hamna ganska under det avsedda målet
  • 4) Möjligt men ändå försenat och pinsamt förmörkat av annan generativ AI som också gör det
  • 5) Möjligt men internt kaos och ledarskapssvårigheter gör saker fula och olämpliga
  • 6) Övrigt

Och för att komplettera listan, här är några av de andra övervägandena:

  • 1) Annat är att allt detta är prat och ingen handling, aldrig kommer igång
  • 2) Annat som AI Law juridisk eller samhällelig AI-etik kastar en skiftnyckel i strävan
  • 3) Annat kan vara att insatsen säljs/köps av andra som vill ha AI eller talang
  • 4) Annat kan bestå av ett överraskande samarbetsarrangemang snarare än ett fristående
  • 5) Andra jokertecken, inklusive gör chockerande upptäckter och pekar på AI-existentiell risk
  • 6) Övrigt

På grund av utrymmesbegränsningar här kommer jag inte att gå in på detaljerna för alla dessa permutationer. Om läsarens intresse väcks tillräckligt, kommer jag gärna att ta upp detta mer i detalj i en senare kolumn.

Slutsats

George Washington påstås ha sagt: "Sanningen kommer i slutändan att segra där det finns ansträngningar att föra fram den."

Att hantera de partiska aspekterna av AI är inte bara ett tekniskt problem som löses via en teknisk fix. De sannolika ansträngningarna att få fram en känsla av "sanning" via generativ AI är många. Du kan förvänta dig att AI-etik och AI-lag kommer att vara en viktig del av att ta reda på vart allt är på väg.

Det knackar på hyttens dörr.

Det kan vara så att det utanför dörren finns (enligt ryktesbruket):

  • TruthGPT
  • ÄrligGPT
  • Osanna GPT
  • OärligGPT
  • ConfusedGPT
  • Förbryllad GPT
  • RandomGPT
  • Annat

Buddha kan ge några insikter om denna fråga: ”Det finns bara två misstag man kan göra på vägen till sanningen; går inte hela vägen och börjar inte." I de snabbt framskridande ansträngningarna av AI borde vi fråga oss om vi gör dessa misstag och i så fall vad vi borde göra åt det.

Och det är den ärliga sanningen.

Källa: https://www.forbes.com/sites/lanceeliot/2023/03/06/can-elon-musk-succeed-in-developing-generative-ai-chatgpt-knockoff-truthgpt-that-would-be- stoiskt-sanningsfulla-alltid-frågar-ai-etik-och-ai-lag/