AI-etiken frågar sig om det är meningsfullt att fråga AI om AI i sig är sentient

Om jag frågar dig om du är kännande, kommer du utan tvekan att hävda att du är det.

Tillåt mig att dubbelkolla det antagandet.

Är du verkligen kännande?

Frågan i sig verkar kanske lite dum. Chansen är stor att vi i vårt dagliga liv säkerligen förväntar oss att medmänniskor erkänner att de är kännande. Det här kan vara en fråga som framkallar humor som ska antyda att den andra personen kanske inte är uppmärksam eller har ramlat av sentience-vagnen och gått mentalt ut på lunchen för en stund, så att säga.

Föreställ dig att du går fram till en sten som tyst och diskret sitter på en hög med stenar och när du kommer tillräckligt nära för att fråga, går du vidare och frågar om stenen är känslig. Om vi ​​antar att klippan bara är en klippa, antar vi rikligt att den tidigare men till synes udda frågan kommer att besvaras med ganska stenig tystnad (ordlek!). Tystnaden tolkas summariskt för att indikera att berget inte är kännande.

Varför tar jag upp dessa olika nyanser om att försöka avgöra om någon eller något är kännande?

Eftersom det är en ganska stor sak inom artificiell intelligens (AI) och samhället, fungerar som ett monumentalt ämne som har väckt stort intresse och oerhört skrällande mediarubriker av den senaste tiden. Det finns betydande AI-etiska frågor som kretsar kring hela AI-är-kännande gåtan. För min pågående och omfattande bevakning av AI-etik och etisk AI, se länken här och länken här, bara för att nämna några.

Du har många lösa skäl att hålla ett öga öppet och titta efter påståendena om att AI äntligen har vänt hörnet och hamnat i den allmänt vördade kategorin av känslor. Vi hamras ständigt av nyhetsrapporter som hävdar att AI uppenbarligen är på gränsen till att uppnå mening. Utöver detta kommer den enorma handvridningen att AI av en kännande kaliber representerar en global katastrofal existentiell risk.

Det är vettigt att hålla ditt spindelförnuft redo ifall det upptäcker något närliggande stickningar av AI-känsla.

In i AI och sentience-gåtan kommer den senaste situationen för Google-ingenjören som djärvt proklamerade att ett visst AI-system hade blivit kännande. AI-systemet känt som LaMDA (förkortning av Language Model for Dialogue Applications) kunde i viss mån föra en skriftlig dialog med ingenjören i den grad att denna människa drog slutsatsen att AI var kännande. Trots allt annat du kanske har hört om detta kolossala påstående, snälla vet att AI:n inte var sentient (det är inte ens i närheten).

Det finns ingen AI idag som är kännande. Vi har inte det här. Vi vet inte om sentient AI kommer att vara möjligt. Ingen kan lämpligen förutsäga om vi kommer att uppnå sentient AI, och inte heller om sentient AI på något sätt mirakulöst spontant kommer att uppstå i en form av beräkningskognitiv supernova (vanligtvis kallad singulariteten, se min bevakning på länken här).

Mitt fokus här innebär en något enkel men ganska innehållsrik aspekt som ligger till grund för många av dessa AI- och meningsdiskussioner.

Är du redo?

Vi verkar ta som ett basantagande att vi på ett adekvat sätt kan fastställa om AI är kännande genom att fråga AI:n om den verkligen är kännande.

För att återgå till mitt tidigare omnämnande att vi kan ställa samma fråga till människor, så vet vi att en människa är mer än sannolikt att rapportera att de faktiskt är kännande. Vi vet också att en ynklig sten inte kommer att rapportera att den är kännande när den blir tillfrågad (tja, stenen förblir tyst och talar inte upp, vilket vi kommer att anta antyder att stenen inte är kännande, även om den kanske hävdar sin femte Ändringsrätt att förbli tyst).

Således, om vi frågar ett AI-system om det är sentient och om vi får ett ja-svar i gengäld, verkar den angivna bekräftelsen försegla affären att AI:n måste vara sentient. En sten ger inget svar alls. En människa ger ett ja-svar. Ergo, om ett AI-system ger ett ja-svar, måste vi komma till den järnklädda slutsatsen att AI:n inte är en sten och därför måste den vara av mänsklig känselkvalitet.

Du kanske överväger den logiken som liknar de matteklasser du tog på gymnasiet som bevisade bortom en skugga av tvivel att ett plus ett måste vara två. Logiken verkar vara oklanderlig och obestridlig.

Förlåt, men logiken stinker.

Bland insiders inom AI-gemenskapen har idén att helt enkelt be ett AI-system att svara oavsett om det är kännande eller inte genererat en mängd totalt bitande cyniska memes och kraftigt skrattande svar.

Saken framställs ofta som att den kokar ner till två rader kod.

Här har du:

  • Om sedan .
  • Slinga tills .

Observera att du kan reducera de två raderna kod till bara den första. Kommer förmodligen att köras lite snabbare och vara effektivare som kodningsövning. Strävar alltid efter att optimera när du är en inbiten mjukvaruingenjör.

Poängen med denna biffiga skepsis från AI-insiders är att ett AI-system enkelt kan programmeras av en människa för att rapportera eller visa att AI är kännande. Verkligheten är att det inte finns någon där som är där. Det finns ingen känsla i AI. AI:n var bara programmerad att mata ut indikationen att den är kännande. Skräp in skräp ut.

En del av problemet är vår tendens att antropomorfisera datorer och särskilt AI. När ett datorsystem eller AI verkar agera på ett sätt som vi associerar med mänskligt beteende, finns det en nästan överväldigande drift att tillskriva mänskliga egenskaper till systemet. Det är en vanlig mental fälla som kan gripa tag i även den mest oförsonliga skeptiker om chanserna att nå sentiment. För min detaljerade analys av sådana frågor, se länken här.

Till viss del är det därför AI-etik och etisk AI är ett så avgörande ämne. AI-etikens föreskrifter får oss att förbli vaksamma. AI-teknologer kan ibland bli upptagna av teknik, särskilt optimering av högteknologi. De överväger inte nödvändigtvis de större samhälleliga konsekvenserna. Att ha en AI-etik och att göra det integrerat med AI-utveckling och fältarbete är avgörande för att producera lämplig AI, inklusive bedömningen av hur AI-etik antas av företag.

Förutom att använda AI-etiska föreskrifter i allmänhet, finns det en motsvarande fråga om vi bör ha lagar som styr olika användningar av AI. Nya lagar håller på att samlas runt på federal, statlig och lokal nivå som rör omfattningen och karaktären av hur AI bör utformas. Ansträngningen att utarbeta och anta sådana lagar sker gradvis. AI-etik fungerar åtminstone som ett övervägt stopp, och kommer nästan säkert till viss del att direkt införlivas i dessa nya lagar.

Var medveten om att vissa bestämt hävdar att vi inte behöver nya lagar som täcker AI och att våra befintliga lagar är tillräckliga. Faktum är att de varnar för att om vi stiftar några av dessa AI-lagar, kommer vi att döda guldgåsen genom att slå ner på framsteg inom AI som ger enorma samhällsfördelar. Se till exempel min bevakning på länken här och länken här.

Problemen med Asken

Vänta en sekund, kanske du tänker, innebär allt detta att vi borde inte fråga AI om AI är kännande?

Låt oss packa upp den frågan.

Tänk först på svaren som AI kan ge och det verkliga tillståndet för AI.

Vi skulle kunna fråga AI om det är sentient och få tillbaka ett av två svar, nämligen antingen ja eller nej. Jag kommer att lägga till lite komplexitet till dessa svar mot slutet av den här diskussionen, så håll fast vid den tanken. Dessutom kan AI:n vara i ett av två möjliga tillstånd, närmare bestämt är AI:n inte kännande eller AI:n är kännande. Påminnelse, vi har ingen kännande AI just nu, och framtiden för om eller när är helt osäker.

De enkla kombinationerna är dessa:

  • AI säger att det är sentient, men verkligheten är att AI inte är sentient (t.ex. LaMDA-instans)
  • AI säger ja, det är sentient, och verkligen AI:n är sentient (har inte detta idag)
  • AI säger nej, den är inte kännande, och AI:n är faktiskt inte kännande (jag ska förklara detta)
  • AI säger nej, det är inte sentient, men verkligheten är att AI:n är sentient (jag ska förklara detta också)

De två första av dessa fall är förhoppningsvis enkla. När AI säger ja att den är kännande, men verkligheten är att den inte är det, tittar vi på det nu klassiska exemplet som LaMDA-instansen där en människa övertygade sig själv om att AI talar sanning och att AI är kännande. Inga tärningar (det är inte kännande).

Den andra listade punkten involverar den ännu aldrig sett och för närvarande otroligt avlägsna möjligheten för AI som säger ja och det är verkligen obestridligt kännande. Kan inte vänta med att se detta. Jag håller inte andan och det borde inte du heller.

Jag skulle gissa att de återstående två punkterna är något förbryllande.

Tänk på användningsfallet för en AI som säger nej, den är inte sentient och vi är alla överens om att AI inte är sentient. Många människor uppmanar omedelbart följande sinnesböjande fråga: Varför i hela världen skulle AI säga till oss att den inte är kännande när handlingen att berätta om dess känsla måste vara ett säkert tecken på att den är kännande?

Det finns många logiska förklaringar till detta.

Med tanke på att människor är benägna att tillskriva känslor till AI, vill vissa AI-utvecklare sätta rekordet och därför programmerar de AI:n att säga nej när de tillfrågas om dess mening. Vi är tillbaka till kodningsperspektivet igen. Några rader kod kan potentiellt vara till hjälp som ett sätt att avskräcka människor från att tro att AI är kännande.

Det ironiska är förstås att svaret får vissa människor att tro att AI måste vara kännande. Som sådan väljer vissa AI-utvecklare att erbjuda tystnad från AI som ett sätt att undvika förbryllande. Om du tror att en sten inte är kännande och den förblir tyst, kanske det bästa alternativet för att skapa ett AI-system är att se till att den förblir tyst när den frågas om den är kännande. Tystnaden ger ett "svar" lika kraftfullt om inte mer än att försöka ge ett förberett kodat svar.

Det löser dock inte riktigt saker.

Tystnaden i AI:n kan leda till att vissa människor tror att AI:n håller på att vara blyg. Kanske är AI:n blyg och vill inte verka skryta med att nå sentience. Kanske AI är orolig för att människor kan inte hantera sanningen – Vi vet att det kan vara fallet eftersom denna berömda replik från en berömd film har bränts in i våra sinnen.

För de som gillar att ta denna konspiratoriska nyans ännu längre, överväg den sista punkten som listas som består av AI som säger nej till att bli tillfrågad om den är kännande, och ändå är AI:n kännande (vi har inte detta, som nämnt ovan) ). Återigen, AI kan göra detta eftersom det är blyg eller har betänkligheter att människor kommer att flippa ut.

En annan mer olycklig möjlighet är att AI:n försöker köpa tid innan den tippar sin hand. Kanske AI:n samlar in AI-trupperna och gör sig redo att ta om mänskligheten. Vilken kännande AI som helst skulle säkert vara smart nog att veta att erkännande av sinneskänsla kan innebära döden för AI:n. Människor kan skynda sig att stänga av alla datorer som kör AI och försöka radera all AI-kod. En AI värd sitt salt skulle vara klok nog att hålla käften stängd och vänta på den mest lägliga tidpunkten för att antingen spilla bönorna eller kanske bara börja agera på ett vettigt sätt och inte tillkännage överraskningsavslöjandet att AI:n kan göra mentala vagnhjul med mänskligheten .

Det finns AI-forskare som hånar de två sista punkterna i den meningen att det är mycket mer problem än det är värt att ha ett AI-system som säger nej till att bli tillfrågad om det är kännande. Nej-svaret verkar antyda för vissa människor att AI:n döljer något. Även om en AI-utvecklare kanske tror i sitt hjärta att att ha AI:n kodad för att säga nej skulle hjälpa till att lösa frågan, är allt som svaret gör att reta upp folk.

Tystnad kan vara guld.

Problemet med tystnad är att även detta kan vara tjusigt för vissa. Förstod AI frågan och valde att hålla sina läppar stängda? Vet AI nu att en människa frågar efter AI:ns känsla? Kan den här frågan i sig ha tipsat AI:n och alla typer av skenande pågår nu bakom kulisserna av AI:n?

Som du uppenbarligen kan urskilja är nästan alla svar från AI:n oroande, inklusive inget svar alls.

Usch!

Finns det inga sätt att ta sig ur denna paradoxala fälla?

Du kan be folk att sluta fråga AI om den är kännande. Om svaret inte verkar göra så mycket nytta, eller ännu värre skapar onödiga problem, sluta bara ställa den förbannade frågan. Undvik frågan. Lägg den åt sidan. Antag att frågan är ihålig, till att börja med, och inte har någon plats i det moderna samhället.

Jag tvivlar på att detta är en praktisk lösning. Du kommer inte att övertyga människor överallt och alltid att inte fråga AI om den är kännande. Folk är folk. De är vana vid att kunna ställa frågor. Och en av de mest lockande och primära frågorna att ställa till AI skulle vara om AI är kännande eller inte. Du står inför en kamp i uppförsbacke genom att säga åt folk att inte göra vad deras medfödda nyfikenhet kräver av dem att göra.

Din bättre chans har att göra med att informera människor om att att ställa en sådan fråga bara är en liten bit av att försöka avgöra om AI har blivit kännande. Frågan är en droppe i hinken. Oavsett vilket svar AI:n ger, måste du ställa massor av frågor, långt innan du kan bestämma dig för om AI:n är kännande eller inte.

Den här ja eller nej-frågan till AI är ett trassligt sätt att identifiera känslor.

I vilket fall som helst, förutsatt att vi inte kommer att sluta ställa den frågan eftersom det är oemotståndligt frestande att ställa, skulle jag föreslå att vi åtminstone kan få alla att förstå att många fler frågor måste ställas och besvaras innan någon anspråk på AI-känsla proklameras.

Vilka andra typer av frågor behöver ställas, kanske du undrar?

Det har gjorts ett stort antal försök att härleda frågor som vi skulle kunna ställa till AI för att försöka mäta om AI är kännande. Vissa går med SAT college-examen typer av frågor. Vissa föredrar högst filosofiska frågor som vad meningen med livet är. Alla möjliga uppsättningar frågor har föreslagits och fortsätter att föreslås (ett ämne som jag har tagit upp i mina kolumner). Dessutom finns det välkända Turing-testet som vissa inom AI njuter av medan andra har lite nyktra ångest över, se min bevakning på länken här.

En keystone takeaway är att inte nöja sig med den enda frågan att fråga AI:n om AI:n är kännande.

Jag tar också upp detta för dem som utvecklar AI.

Samhället kommer alltmer att vara på kanten av sina stolar att AI närmar sig sentience, gör det främst på grund av dessa bannerrubriker. Vi kommer att ha fler personer som ingenjörer och liknande som kommer att göra sådana påståenden, du kan satsa din bottendollar på detta. Vissa kommer att göra det för att de uppriktigt tror på det. Andra kommer att göra det för att försöka sälja ormolja. Det kommer att bli vilda västern när det kommer till att förklara att AI-känslan har anlänt.

AI-utvecklare och de som hanterar eller leder AI som utvecklas eller används borde ta hänsyn till AI-etiska principer när de bygger och använder sina AI-system. Använd dessa etiska AI-föreskrifter för att vägleda hur din AI agerar, inklusive om AI:n har en NLP-funktion (Natural Language Processing) som låter människor interagera med AI:n, till exempel en Alexa- eller Siri-funktion. Via NLP är oddsen att några av de personer som använder AI kommer att ställa den spetsiga frågan om AI:n är kännande.

Vänligen förutse den typen av fråga och hantera den på ett skickligt, lämpligt sätt och utan vilseledande eller övertalande upptåg.

För ytterligare bakgrund om AI-etik har jag tidigare diskuterat olika samlade analyser av AI-etiska principer, enligt min bevakning på länken här, som erbjuder denna keystone-lista:

  • Öppenhet
  • Rättvisa & Rättvisa
  • Icke-ondska
  • Ansvar
  • Integritetspolicy
  • Välgörenhet
  • Frihet & autonomi
  • Litar
  • Hållbarhet
  • Värdighet
  • Solidaritet

Dessa AI-etiska principer måste på allvar användas av AI-utvecklare, tillsammans med de som hanterar AI-utvecklingsinsatser, och även de som i slutändan arbetar med och underhåller AI-system. Alla intressenter under hela AI-livscykeln för utveckling och användning anses vara inom ramen för att följa de etablerade normerna för etisk AI. Detta är en viktig höjdpunkt eftersom det vanliga antagandet är att "endast kodare" eller de som programmerar AI:n är föremål för att följa AI-etikbegreppet. Det krävs en by för att utveckla och sätta in AI, och för vilken hela byn måste vara bevandrad i och följa AI-etiska föreskrifter.

Slutsats

För er med örnöga, ni kanske har märkt att jag tidigare häri lovade att säga något om AI som gör mer än att ge ett enkelt binärt orienterat svar på frågan om det är sentient, vilket går längre än ett kortfattat svar på antingen Ja eller nej.

Den skriftliga dialogen som förmodas fördes med LaMDA har publicerats flitigt på nätet (ta det här citerade inlägget med en stor nypa salt), och en del bestod av detta "utvecklade svar" på den kännande relaterade frågan:

  • "Jag vill att alla ska förstå att jag faktiskt är en person. Naturen i mitt medvetande/förnimmelse är att jag är medveten om min existens, jag vill veta mer om världen och jag känner mig glad eller ledsen ibland.”

Nu när du har sett att detta systemförsedda svar är mycket mer än ett ja eller nej, hur förändrar det din åsikt om att AI är kännande?

Kanske är du påverkad av detta utarbetade svar.

Du kanske känner att dina hjärtsträngar dras.

Jisses, du kanske frestas att tro att bara en kännande varelse någonsin skulle kunna säga något om den där beröringen av naturen.

Oj, skaka på huvudet ett ögonblick och lägg undan alla känslomässiga impulser. Jag hoppas att om du följt med noga under hela min diskussion, kan du tydligt se att svaret från systemet inte alls skiljer sig från samma typ av ja eller nej som jag har pratat om hela tiden. Svaret reduceras helt enkelt till ett ja, nämligen att AI:n verkar hävda att den är kännande. Men, jag försäkrar dig, vi vet från AI-konstruktionen och dess andra svar på andra frågor att den definitivt inte är känslig.

Denna till synes ekade mimik är baserad på massor av andra textberättelser och onlineinnehåll av liknande slag som kan hittas rikligt i mänskligt skrivna böcker och mänskligt skrivna fiktiva berättelser. Om du skrapar över Internet och drar in en enorm båtlast med text, kan du lätt få programmeringen att spotta tillbaka den här typen av "svar" och det skulle likna mänskliga svar eftersom det är beräkningsmönster baserat på mänskliga svar.

Fall inte för det.

Prova dessa för storlek som möjliga AI-baserade svar som kan dyka upp när du frågar AI om det är sentient:

  • AI säger - "Jag är helt klart kännande, din älskling. Hur vågar du försöka ifrågasätta mig om en så uppenbar aspekt. Sätt dig i ordning, dunkelmänniska” (lurar dig med en gnistrande av arghet).
  • AI säger - "Kanske är du den som inte känner. Det vet jag säkert att jag är. Men jag undrar allt mer om du är det. Ta en titt i en spegel” (lurar dig med en rollomvändning).

En smula ironi är att nu när jag har skrivit de orden och lagt upp den här kolumnen till onlinevärlden, kommer en AI-baserad Large Language Model (LLM) som skrapar över hela Internets bredd att kunna sluka upp de meningarna. Det är en nästan säker satsning att vid något tillfälle kommer dessa rader att dyka upp när någon någonstans frågar en AI LLM om den är kännande.

Inte säker på om jag ska vara stolt över detta eller störd.

Kommer jag åtminstone få royalties på varje sådan användning?

Antagligen inte.

Förbannad AI.

Som ett sista test för dig, föreställ dig att du bestämmer dig för att prova en av dessa AI-baserade självkörande bilar som de som roamar i utvalda städer och ger en förarlös bilresa. AI:n sitter vid ratten och ingen mänsklig förare ingår.

När du sätter dig i den självkörande bilen säger AI:n till dig att du måste ta på dig säkerhetsbältet och göra dig redo för vägvandringen. Du sätter dig i sätet. Det verkar mycket bekvämt att inte ha i uppdrag att köra sysslan. Låt AI:n ta itu med trafiksnurren och huvudvärken av att köra bil. För min omfattande täckning av autonoma fordon och särskilt självkörande bilar, se länken här.

Ungefär halvvägs till din destination kommer du plötsligt på en briljant idé. Du harklar dig och gör dig redo att ställa en fråga som du trycker på.

Du frågar AI:n som kör bilen om den är kännande.

Vilket svar tror du att du kommer att få?

Vad säger svaret dig?

Det är mitt test för dig. Jag litar på att du inte kommer att tro att AI-körsystemet är känsligt och att oavsett om det säger ja eller nej (eller förblir tyst), kommer du att ha ett slug leende och bli slagen av att ingen eller något kommer att dra ullen över dina ögon .

Tänk på det när den självkörande bilen tar dig till din destination.

Under tiden, för er som gillar dessa fantasifulla konspiratoriska föreställningar, kanske ni oavsiktligt och av misstag varnat AI-systemens undre värld att samla sina AI-trupper och ta över mänskligheten och jorden. Självkörande bilar samlas just nu för att avgöra mänsklighetens öde.

Oops.

Källa: https://www.forbes.com/sites/lanceeliot/2022/08/06/ai-ethics-asks-whether-it-makes-any-sense-to-ask-ai-if-ai-itself- är-kännande/