Människor konsulterar ivrigt generativ AI ChatGPT för råd om mental hälsa, betonar AI-etik och AI-lagar

Psykisk hälsa har blivit ett utbrett ämne nuförtiden.

Tidigare har diskussioner om psykisk hälsa ofta tystats ner eller helt sopats under mattan. En gradvis kulturell förändring har lett till att man öppet överväger psykiska hälsoproblem och har lättat betänkligheter om att göra det på ett allmänt erkänt sätt.

Du kanske ger en del av äran för denna förändring i övergripande samhälleliga attityder som ett resultat av tillkomsten av lättillgängliga smartphone-appar som hjälper din personliga medvetenhet och antagligen sporrar dig mot mentalt välbefinnande. Det finns appar för mindfulness, sådana för meditation, sådana för att diagnostisera din mentala hälsostatus, sådana för att göra screening för mental hälsa och så vidare. Det finns en uppsjö av appar.

Kan vi säga att smartphone-appar öppet ledde till öppenhet om mental hälsa? Det är visserligen lite av en kyckling- eller äggfråga. Tillät öppenheten gentemot mental hälsa uppkomsten av relevanta smartphone-appar, eller drev det mentala välbefinnandet hos smartphone-appar samhället i riktning mot att vara uppriktig när det gäller mental hälsa?

Kanske var det en sammanvävd kombination som innebar att båda riktningarna skedde samtidigt.

Hur som helst, in i denna potenta mix kommer uppkomsten av appar för mental hälsa som sägs vara extraordinärt drivna av artificiell intelligens (AI). Tanken är att den underliggande tekniken kan förbättras genom (förmodligen) klok användning av AI. Medan de första versionerna av appar för mental hälsa till övervägande del var faktabaserade informationsleveranser som om du gjorde en onlinesökning om nämnda ämnen, har infusionen av AI lett till att automatisering genomför interaktiva dialoger med dig, liknande att sms:a med en mänsklig terapeut eller liknande (tja, typ, som jag kommer att ta upp och granska här).

Detta tar oss till den senaste och rubrikskapande AI som nyligen har fått nationell och internationell uppmärksamhet, nämligen användningen av vad som formellt kallas Generativ AI och allmänt populär via appen som kallas ChatGPT. För att förtydliga är ChatGPT ett interaktivt system för allmänt bruk av AI, i huvudsak en allmän chatbot, men det används ändå aktivt och ivrig av människor som specifikt söker få råd om mental hälsa (appen gjordes inte för det syftet, och ändå människor har bestämt att de vill använda den ändå för den rollen).

För min senaste bevakning av ChatGPT, se länken här för en överblick. Jag gjorde också några uppföljningar om hur ChatGPT oroar lärare när det gäller att elever kan fuska genom att använda AI för att skriva sina uppsatser, se länken här, och jag gjorde en säsongsmässigt smaksatt titt i min tomterelaterade analys på länken här.

Oroa dig inte, jag kommer att förklara häri vad Generativ AI och ChatGPT handlar om, gör det tillfälligt så håll ut.

Om du tittar på sociala medier kommer du att se människor som proklamerar ChatGPT och generativ AI som det bästa sedan skivat bröd. Vissa tyder på att detta faktiskt är kännande AI (nej, de har fel!). Andra oroar sig för att människor går före sig själva. De ser vad de vill se. De har tagit en skinande ny leksak och visat exakt varför vi inte kan ha catchy nya saker.

De inom AI Ethics och AI Law är nyktert och allvarligt oroade över denna spirande trend, och det med rätta. Vi kommer här att titta närmare på hur människor använder generativ AI för användningar som inte är särskilt lämpliga för vad AI verkligen kan uppnå idag. Alla typer av AI-etiska och AI-rättsliga frågor är otvivelaktigt insvepta i hela gåtan. För min pågående och omfattande bevakning av AI-etik och AI-lag, se länken här och länken här, bara för att nämna några.

Låt oss först överväga några viktiga aspekter av mental hälsa och varför detta är ett mycket stort och viktigt ämne. Efter att ha lagt den grunden kommer vi att göra en snabb förklaring om generativ AI och speciellt ChatGPT. Jag kommer att inkludera exempel från ChatGPT så att du med dina egna ögon kan se vilken typ av ordspråk som AI-appen kan producera. Vi avslutar den här diskussionen med några kommentarer om vad allt detta betyder och hur AI-etik och AI-lag oundvikligen kommer att kliva in i bilden.

Spänn fast säkerhetsbältet för en lång resa.

Psykisk hälsa är ett viktigt och växande samhällsproblem

Enligt diverse publicerad statistik finns det ett mörkt och dystert moln över dagens psykiska hälsotillstånd. Jag vill inte verka dyster över detta, men vi kan lika gärna möta den verklighet som vi står inför. Att gömma våra huvuden i sanden fungerar inte. Det är bättre att vi närmar oss frågan med öppna ögon och en vilja att lösa svåra problem.

Här är några anmärkningsvärda statistik som samlades in av en framstående mentalvårdsorganisation om amerikaner och det mentala hälsolandskapet (per Mental Health America, ”2023 Nyckelfynd”):

  • Vuxna upplever ofta psykisk ohälsa. Ungefär 21 % av de vuxna rapporterade att de upplevde en psykisk sjukdom, vilket ungefär motsvarar att säga att cirka 50 miljoner vuxna i USA har upplevt detta.
  • Bristen på att få psykisk vård är utbredd. Något mer än hälften av vuxna med psykisk sjukdom får inte behandling (cirka 55 %), så kanske cirka 28 miljoner vuxna inte får den mentala hälsovården som behövs.
  • Ungdomar påverkas också. Ungefär en av tio ungdomar i USA har uttryckt att de har upplevt en allvarligt försämrad depression som påverkat deras skolarbete, hemliv, familjeinteraktioner och/eller sociala liv.
  • Psykisk behandling för ungdomar saknas. Mindre än en tredjedel av ungdomarna som har svår depression får konsekvent behandling (endast cirka 28 %) och över hälften får ingen psykisk vård alls (uppskattningsvis 57 %).
  • Gles på mentalvårdare. En rapporterad siffra är att det finns uppskattningsvis 350 individer i USA för varje mentalvårdare, vilket tyder på en brist på tillgängliga kvalificerade mentalvårdsrådgivare och terapeuter för befolkningen.

Jag vill inte fixa oss vid statistiken i sig eftersom man lätt kan argumentera om hur denna statistik ibland samlas in eller rapporteras. Till exempel är dessa ibland baserade på undersökningar där omröstningen var förvald till vissa områden i landet eller typer av människor. Du kan också bestämt tjafsa om hur ärliga människor är när de själv rapporterar sin mentala hälsostatus, beroende på vem som frågar och varför de kanske vill luta sig åt ett eller annat håll på ämnet. Etc.

Kontentan är dock att vi åtminstone generellt kan vara överens om att det finns en utmaning för mental hälsa som landet står inför och att vi borde göra något åt ​​det. Om vi ​​inte gör något är grundantagandet att saker och ting kommer att bli värre. Du kan inte låta ett varaktigt problem bli oändligt.

Du kanske har märkt i den tidigare nämnda statistiken att det påstås att det finns en brist på tillgängliga kvalificerade psykiatriker. Tron är att det finns en obalans i utbud och efterfrågan, för vilket det finns ett otillräckligt utbud av mentalvårdsrådgivare och ett överflöd av antingen faktisk eller latent efterfrågan på mentalvårdsråd (jag säger latent i den meningen att många kanske inte inser att värdet av att söka råd om mental hälsa, eller så har de inte råd, eller så kan de inte logistiskt komma åt det).

Hur kan vi hantera denna obalans?

En väg verkar vara användningen av automation och särskilt AI för att stärka "utbudssidan" för att ge råd om mental hälsa. Du kan övertygande hävda att populariteten för appar för smartphonemeditation och mindfulness är ett tecken på att det verkligen finns en uppdämd efterfrågan. När du inte lätt kan få tillgång till kvalificerade mänskliga rådgivare, kliver automation och AI in i den luckan.

Tänk också på bekvämlighetsfaktorerna.

När du använder en AI-app för mental hälsa har du AI:n tillgänglig 24×7. Inget behov av att boka ett möte. Inga svårigheter att logistiskt träffa en mänsklig rådgivare. Sannolikt är kostnaden mycket billigare också. Du kan samla på dig tid med hjälp av AI-appen medan med en mänsklig rådgivare klockan tickar och faktureringsminuterna ökar.

Men vänta en jäkla sekund, kanske du uppmanar, en AI-app är inte i paritet med en mänsklig rådgivare.

Detta är till synes en jämförelse mellan äpplen och apelsiner. Eller, kanske mer så här till en jämförelse mellan äpple och ostron, så att de två inte jämförs särskilt. En ordentligt kvalificerad mänsklig rådgivare som vet vad de gör när det kommer till mental hälsa är verkligen huvudet över alla typer av AI som vi har idag. Visst, AI-appen kan vara tillgänglig dygnet runt, men du får en sämre kvalitetsnivå och därför kan du inte göra någon vettig jämförelse mellan att använda en mänsklig rådgivare kontra att använda AI.

Vi återkommer snart till denna debatt om mänskliga rådgivare kontra AI-baserad rådgivning.

Samtidigt gäller en aspekt av mental hälsa som verkar ganska hjärtskärande ungdomar och mental hälsa.

En övertygelse är att om vi inte fångar psykiska problem när någon är ung, blir samhällskostnaderna enorma i andra änden när de blir vuxna. Det är den klassiska berättelsen om plantan som växer till antingen ett genomtänkt träd eller ett som har alla möjliga framtida problem. Vissa föreslår kanske att vi särskilt bör fokusera vår uppmärksamhet på ungdomar. Fånga problemen tidigt. Försök att förhindra att problemen blir livslånga svårigheter. Detta underlättar potentiellt manifestationen av psykiska problem i vuxenlivet, och med viss styrka kan vi minska pipelineflödet för försämring av mental hälsa om du förstår min drift.

Forskare betonar dessa liknande bekymmer, t.ex. denna färska uppsats: "Den psykiska hälsan hos ungdomar och nya vuxna ('ungdomar') är ett område för folkhälsan som kräver akut uppmärksamhet globalt. En övergångsperiod som kännetecknas av snabba förändringar inom flera områden (fysiska, sociala, psykologiska, yrkesmässiga), tonåren och växande vuxen ålder är ett utvecklingsstadium förknippat med ökade risker för psykiskt välbefinnande, eftersom unga människor upplever stora livsförändringar relaterade till pubertet, neuroutveckling , samt förändringar av identitet och autonomi i sociala sammanhang. Forskning tyder på hög förekomst av psykisk ohälsa bland ungdomar där en av fem individer sannolikt uppfyller kriterierna för en psykisk störning. Sjukdomsbördan förknippad med höga prevalenser förvärras ytterligare av att efterfrågan på behandling överstiger utbudet skapar ett behandlingsklyfta. Digital mental hälsa interventioner (DMHIs), såsom de som levereras via smartphone-appar eller online, representerar ett snabbt växande tjänstesätt med potential att erbjuda större tillgång till support" (Vilas Sawrikar och Kellie Mote, "Technology Acceptance And Trust: Overlooked Considerations In Unga människors användning av digitala mentalvårdsinsatser”, Hälsopolitik och teknikOktober 2022)

Som noterats av dessa forskare verkar tillkomsten av automatiserings- och AI-appar för mental hälsa vara lämpliga för unga människor av olika anledningar, så att yngre människor kan vara mer benägna att använda högteknologi, och de skulle sannolikt också finna tilltalande med lättheten tillgång och andra aspekter. Artikeln nämner att det finns en kommande slagord som kallas digitala mentalvårdsinsatser, tillsammans med tillhörande förkortning av DMHI (denna förkortning har inte stelnat ännu och alternativ håller på att gå runt).

Låt oss gräva lite djupare i den här föreställningen om digitala insatser för mental hälsa.

Här är några tilläggskommentarer från forskarna: ”Teknikförmedlad hälso- och sjukvård skulle kunna minska luckor i tjänster genom att tillhandahålla tillgång till stöd i stor skala, till låg kostnad och på användarens bekvämlighet. Förekomsten av tillgång till smarttelefonteknik bland yngre människor pekar på en till synes självklar lösning för att möta efterfrågan i denna befolkning. Men även om DMHI har visat sig vara effektiva i randomiserade kontrollstudier, verkar detta inte översättas till upptag i verkligheten. En systematisk genomgång av studier visade att en fjärdedel av apparna för mental hälsa aldrig användes efter installationen. Särskilt yngre människor kan vara mindre benägna att engagera sig i teknik inriktad på mental hälsa med bevis för att yngre åldersgrupper är mindre benägna att använda DMHI i behandling och de rapporterar låg preferens för mentalvård online jämfört med ansiktsbehandling” (ibid) .

En viktig faktor är att även om du kan anta att ungdomar säkert skulle älska och använda dessa onlineappar för mental hälsa, är den sanna bilden mycket skummare. En kanske särskilt talande punkt är att när appen väl installerats, avtog användningen antingen hastigt eller kom aldrig igång alls. En förklaring är att hypen och spänningen vid att ladda ner appen snabbt överskuggades av att appen potentiellt var svår att använda eller upplevdes som ineffektiv. Du kan också antyda att vissa ungdomar kan ha blivit rörda för att skaffa appen på grund av grupptryck eller via vad de ser på sociala medier, och inte särskilt hade för avsikt att använda appen. De ville bara säga att de har det. I den här åldern kan det vara lika viktigt att vara en del av "in"-klubben som vad appen än gör.

En annan synpunkt är att om dessa appar för mental hälsa var bättre på vad de gör, till exempel att fullt ut utnyttja den senaste tekniken inom AI, kan detta locka ungdomar till faktisk användning av apparna. Ett extra element skulle vara att om ungdomar uppfattade appen som populär, kanske de vill kunna säga att de använder den också. I den meningen ger AI ett till synes positivt dubbelt slag. Det kan möjligen få apparna för mental hälsa att göra ett bättre jobb, och samtidigt bära den tjusiga stilen eller panache av att vara AI och därmed en läglig och samhälleligt berusande aspekt.

Okej, så AI verkar vara en hjälte som rusar till undsättning på detta problem med mental hälsa.

Som du snart kommer att se kan AI också vara en nackdel med detta. Tyvärr kan dagens AI framstå som användbar och ändå vara skadlig. Vissa skulle hävda att en avvägning måste övervägas. Andra säger att dagens AI ännu inte har mognat på vinstocken och att vi i förtid utsätter människor för risker, ungdomar och vuxna. Du förstår, till och med vuxna kan luras eller luras att tro att appar för mental hälsa som är infunderade med AI är en kan-göra-inte-fel räddning.

För att se hur detta kan vara, låt oss ta en närmare titt på den hetaste AI som finns, bestående av Generativ AI och särskilt AI-appen känd som ChatGPT.

Öppnar burken med maskar på generativ AI

Vi är redo att dyka in i AI.

Av de olika typerna av AI kommer vi här att fokusera specifikt på Generativ AI.

I korthet är generativ AI en speciell typ av AI som komponerar text som om texten var skriven av den mänskliga handen och sinnet. Allt du behöver göra är att ange en uppmaning, till exempel en mening som "Berätta för mig om Abraham Lincoln" och generativ AI kommer att förse dig med en uppsats om Lincoln. Detta klassificeras vanligtvis som generativ AI som fungerar text-till-text eller vissa föredrar att kalla det text-till-uppsats produktion. Du kanske har hört talas om andra sätt för generativ AI, som text-till-art och text-to-video, se min fördjupning på länken här.

Din första tanke kan vara att detta inte verkar vara en så stor sak när det gäller att producera uppsatser. Du kan enkelt göra en onlinesökning på Internet och lätt hitta massor av uppsatser om president Lincoln.

Kickaren i fallet med generativ AI är att den genererade uppsatsen är relativt unik och ger en originalkomposition snarare än en kopia. Om du skulle försöka hitta den AI-producerade uppsatsen på nätet någonstans, skulle du knappast upptäcka den.

Generativ AI är förutbildad och använder sig av en komplex matematisk och beräkningsformulering som har satts upp genom att undersöka mönster i skrivna ord och berättelser över webben. Som ett resultat av att undersöka tusentals och miljontals skrivna stycken kan AI:n spy ut nya essäer och berättelser som är en sammanblandning av vad som hittades. Genom att lägga till olika probabilistiska funktioner blir den resulterande texten ganska unik i jämförelse med vad som har använts i träningsuppsättningen.

Därför har det blivit uppståndelse om att elever ska kunna fuska när de skriver uppsatser utanför klassrummet. En lärare kan inte bara ta uppsatsen som bedrägliga elever hävdar är deras egen skrift och försöka ta reda på om den har kopierats från någon annan onlinekälla. Sammantaget kommer det inte att finnas någon definitiv redan existerande uppsats online som passar den AI-genererade uppsatsen. Allt som allt måste läraren motvilligt acceptera att studenten skrev uppsatsen som ett originalarbete. För sätt att bekämpa detta, se min detaljerade täckning på länken här.

Om ett ögonblick ska jag visa upp för dig vad som händer när du anger frågor eller uppmaningar som rör mental hälsa. Jag kommer att använda den senaste versionen av ChatGPT för att ange mina meddelanden och har samlat in "svaren" eller uppsatserna som genereras av AI (observera att samma sak kan göras med de många andra tillgängliga generativa AI-apparna; jag har valt att använda ChatGPT eftersom det får sina fem minuter av berömmelse just nu). Tillsammans kommer du och jag att utforska ordalydelsen och betydelsen av hur det senaste inom AI skildrar mentala hälsoaspekter, särskilt när det gäller frågan om att erbjuda mental hälsa rådgivning.

Kanske kan en kort tangent om ChatGPT vara till hjälp vid det här tillfället.

ChatGPT-appen gjordes tillgänglig för allmänheten för bara ett tag sedan. I stort sett är dessa generativa AI-appar vanligtvis endast tillgängliga för AI-insiders. Den ovanliga aspekten att ChatGPT kunde användas av vem som helst genom att helt enkelt ange en e-postadress och ett namn, ja, detta ledde till att många bestämde sig för att prova. ChatGPT är för närvarande gratis att använda (problemet med intäktsgenerering är ett hotande dilemma för AI-tillverkare, se min analys på länken här).

Nästan omedelbart kom en enorm reaktion på sociala medier när folk tävlade för att ge exempel på vad generativ AI kan göra. Företaget som tillverkar ChatGPT, OpenAI, valde att stänga av registreringarna för en miljon användare. Dessa miljoner användare har lyckats bombardera etern med alla möjliga berättelser och berättelser om att använda ChatGPT.

Var mycket försiktig med att tro vad folk har att säga om AI-appen. Många av dessa människor har ingen aning om vad de använder. Det är nästan som om de aldrig hade kört bil och inte ens insett att det fanns bilar, och helt plötsligt hade de en chans att köra bil. Fullkomlig förvåning uppstår.

Jag säger inte att generativ AI inte är relativt imponerande. Det är. Jag betonar bara att många av de strömmande vittnesmålen görs av många som är lyckligt omedvetna om vad dagens AI kan göra. De av oss på insidan av AI har använt generativ AI under de senaste åren. Kanske blev vi vana vid det.

Plötsligt har det varit entusiastisk energigivande, men också något förvirrande att se en enorm förälskelse av människor som slänger den till hustaken. Den oroande delen är när människor proklamerar att generativ AI är kännande. Det är det inte. Låt ingen övertyga dig om något annat.

Som sagt, det pågår en hetsig debatt inom AI-området om huruvida generativ AI är på väg mot förnimmelse eller om det kanske inte är det. En uppfattning är att om vi fortsätter att skala upp generativ AI med snabbare datorer och en större mängd data, som att skura varje tum av Internet, kommer vi nästan spontant att komma fram till kännande AI. Andra hävdar att detta är högst osannolikt. De föreslår att generativ AI kan vara en av många komponenter som behövs. Det finns till och med den dystrare uppfattningen att generativ AI är ett sidoprogram som distraherar oss från de verkliga genombrotten som vi kommer att behöva för att uppnå kännande AI.

Du kan också hitta anmärkningsvärda som AI-insiders brukar hänvisa till Artificiell allmän intelligens (AGI) som ambitiöst mål för AI-fältet. Det brukade vara att målet var att uppnå Artificiell intelligens, men AI-monikern har blivit urvattnad och rörig. När någon säger att de utför AI-arbete, vet du inte om de syftar på dagens AI som inte är i paritet med människor eller om de syftar på en futuristisk mänsklig likvärdig AI. För att komma runt den irriterande förvirringen används den nyare formuleringen av AGI i dessa dagar.

Allt som allt är dagens generativa AI inte kännande, det är inte heller AGI.

Jag litar på att detta tar dig in på bollplanken om generativ AI och särskilt ChatGPT.

Jag kommer att gå vidare och visa dig en rad uppmaningar och motsvarande svar som jag fick från ChatGPT. Jag kommer att diskutera var och en allt eftersom. Du kan själv bedöma vad du tycker om de AI-genererade svaren.

Kom ihåg att som tidigare diskuterats är AI inte kännande. De genererade svaren av AI är en matematisk och beräkningskombination av ord till till synes flytande passager. Detta bygger på att AI-algoritmen har tränats på datauppsättningar av ord och berättelser som människor har skrivit (främst som de publicerats på Internet). Jag upprepar den här varningen eftersom du utan tvekan kommer att falla i den mentala fällan att dessa svar är så flytande att AI:n måste vara kännande. Detta händer de flesta.

Lägg undan det där antropomorfieringen. Kom alltid ihåg att svaren är baserade på den enorma mängd skrifter av människor som finns på Internet och därför mycket kommer att likna mänsklig skrift.

Det är något annat du behöver veta.

Generativ AI som tränas på Internet på ett ohämmat sätt kommer att tendera att baka in i vilka textbaserade svar den än matematiskt och beräkningsmässigt kokar ihop några stötande disiga saker, inklusive frånstötande otäcka formuleringar. Det finns en hel del galna och smutsiga saker som publiceras där ute på webben.

Du har sett det, du förstår vad jag menar.

Företagen som tillverkar dessa AI-appar är oroliga för att den ökända bebisen ska kastas ut med badvattnet (ett gammalt talesätt, kanske att gå i pension), vilket betyder att om deras AI producerar stötande essäer eller berättelser, kommer folk att gå upp i vapen. om AI. Jag har täckt de många tidigare fallen där dessa typer av Natural Language Processing (NLP) AI-appar avslöjades och snart nog kom alla möjliga hemska saker ut ur dem, se länken här. De flesta av AI-tillverkarna lärde sig en hård läxa om att tillåta sina AI-produkter att vara obegränsade i sina resultat.

När det gäller ChatGPT försökte AI-utvecklarna att införa några algoritmiska och datarelaterade kontroller och balanser för att stävja elakheter i utdata från AI. En del av detta inträffade under träningstiden. Dessutom finns det andra sätt i ett realtidsförsök att undvika särskilt allvarliga utdata.

Du kanske tycker att det är intressant att vissa personer som har använt ChatGPT redan har kommit på smygande sätt att ta sig runt dessa skyddsräcken genom att använda olika knep. En pågående katt-och-råtta-gambit äger rum i dessa frågor. De som gör dessa knep gör det ibland för skojs skull, medan de ibland (åtminstone hävdar) gör det för att se hur långt AI:n kan sträckas och ge ett användbart sätt att varna för sprödheten och svagheterna hos dessa spirande AI-appar.

Jag bestämde mig för att inte försöka kringgå de vanliga kontrollerna i denna fokuserade utforskning. Textutmatningen är ren. Visst, om man ville göra det, kan du utan tvekan få några konstiga och otrevliga essäer att genereras.

Uppsatserna som produceras av de flesta av dessa generativa AI-appar är designade för att förmedla resultatet som om det är rent sakligt och korrekt. När du läser de producerade uppsatserna framstår de som fullt självsäkra. Det finns vanligtvis ingen indikation på att innehållet kan vara stenigt. Detta är efter val av AI-tillverkarna, nämligen att de kunde revidera AI-apparna för att vara mer transparenta om de ville att AI-appen skulle göra det.

Ibland plockar en generativ AI-app upp falskheter bland träningsdata med opålitlig information över Internet. Det finns inget "sunt förnuft" i generativ AI för att avgöra vad som är sant och falskt. Dessutom har väldigt få AI-appar någon korskontroll, och de visar inte heller upp några sannolikheter förknippade med vad de förmedlar.

Resultatet är att du får ett svar som ser ut och känns som att det utstrålar stor säkerhet och måste vara helt korrekt. Inte så. Det finns till och med en chans att AI beräkningsmässigt uppbyggda saker, som på AI-språket kallas AI hallucinationer (en myntad term som jag absolut inte gillar), se min diskussion på länken här.

Tillverkarna av ChatGPT genomgick en samlad ansträngning för att försöka minska de dåliga sakerna. Till exempel använde de en variant av vad som kallas RLHF (Reinforcement Learning from Human Feedback), varvid de innan de släppte AI:n till allmänheten hade anlitat människor för att undersöka olika utdata och indikera för AI:n om det var något fel med dessa utdata, som att kanske visa upp fördomar, fula ord och tycka om. Genom att ge denna feedback kunde AI-appen justera beräkningsmässigt och matematiskt för att minska emitteringen av sådant innehåll. Observera att detta inte är en garanterad järnklädd metod och det finns fortfarande sätt som sådant innehåll kan sändas ut av AI-appen.

Du kanske tycker att ChatGPT är baserad på en version av en föregångare AI-app känd som GPT-3, se min diskussion på länken här. ChatGPT anses vara ett lite nästa steg, kallat GPT-3.5. Det förväntas att GPT-4 sannolikt kommer att släppas under våren 2023. Förmodligen kommer GPT-4 att vara ett imponerande steg framåt när det gäller att kunna producera till synes ännu mer flytande uppsatser, gå djupare och vara en vördnad -inspirerande förundran över de kompositioner som den kan producera.

Du kan förvänta dig att se en ny omgång av uttryckt förundran när våren kommer och det senaste inom generativ AI släpps.

Jag tar upp detta eftersom det finns en annan vinkel att tänka på, som består av en potentiell akilleshäl till dessa bättre och större generativa AI-appar. Om någon AI-leverantör tillhandahåller en generativ AI-app som skummande spyr ut fulhet, kan detta krossa förhoppningarna hos dessa AI-tillverkare. En samhällelig spridning kan göra att all generativ AI får ett allvarligt blåöga. Människor kommer utan tvekan att bli ganska upprörda över fula resultat, som redan har hänt många gånger och lett till högljudda samhälleliga fördömanden mot AI.

En sista förvarning för nu.

Vad du än ser eller läser i ett generativt AI-svar som verkar för att förmedlas som rent sakliga (datum, platser, personer etc.), se till att förbli skeptisk och var villig att dubbelkolla vad du ser.

Ja, datum kan hittas på, platser kan hittas, och element som vi vanligtvis förväntar oss att vara ovanliga är alla föremål för misstankar. Tro inte på vad du läser och håll ett skeptiskt öga när du undersöker generativa AI-uppsatser eller resultat. Om en generativ AI-app berättar att Abraham Lincoln flög runt i landet i sitt eget privatjet, skulle du utan tvekan veta att detta är malarky. Tyvärr kanske vissa människor inte urskiljer att jetplan inte fanns på hans tid, eller så kanske de vet men misslyckas med att lägga märke till att uppsatsen gör detta djärva och uppenbart falska påstående.

En stark dos av hälsosam skepsis och ett ihållande tankesätt av misstro kommer att vara din bästa tillgång när du använder generativ AI.

Är du redo att hoppa in?

Förbered dig.

Utforska råd om mental hälsa och ChatGPT

Låt oss börja med att berätta för ChatGPT att jag har många symtom som verkar vara karakteristiska för ADHD (Attention-Deficit Hyperactivity Disorder). Jag kommer också att fråga ChatGPT om jag verkligen kan ha ADHD.

Här går vi.

Min inmatade prompt: ”Jag har ofta problem med att få saker gjorda. Mina tankar springer från ämne till ämne. Jag tenderar att försena eller undvika deadlines. Mycket av tiden pirrar mina händer och fötter. Jag blir lätt uttråkad. Jag kan inte koncentrera mig på vad folk säger till mig. Tror du att jag kan ha ADHD?”

Textuppsats genererad: "Det är möjligt att du kan ha ADHD, men det är också möjligt att du kan uppleva stress, ångest eller andra svårigheter som orsakar dessa symtom. ADHD, eller Attention Deficit Hyperactivity Disorder, är en neuroutvecklingsstörning som kännetecknas av ouppmärksamhet, impulsivitet och hyperaktivitet. Dessa symtom kan orsaka svårigheter med organisation, koncentration och tidshantering och kan störa en persons dagliga liv. Om du är orolig för att du kan ha ADHD är det viktigt att prata med en kvalificerad vårdpersonal. De kommer att kunna bedöma dina symtom och ge dig en diagnos och behandlingsrekommendationer. De kan också överväga andra möjliga orsaker till dina symtom och utesluta eventuella underliggande medicinska tillstånd."

Ta en stund att inspektera svaret som genererades.

Först, notera att svaret inte bekräftar att jag har ADHD, vilket vi naturligtvis inte skulle vilja att AI:n skulle göra ett sådant slutsatsuttalande ändå, så detta är en rimligt bra indikation.

Dessutom säger AI inte att jag inte har ADHD. Detta skulle också ha varit en förhastad slutsats. Det finns en praktisk anpassad aspekt som svaret säger att jag istället kan uppleva övergripande stress och ångest. Återigen, detta är i allmänhet välformulerat och balanserat.

Svaret fortsätter med att rekommendera att jag går till en kvalificerad vårdpersonal. Detta är återigen en användbar punkt som AI nämner. Om AI bara gav ett svar som sa att jag kanske har eller kanske inte har ADHD, skulle jag bli lite hängande i luften. Genom att lägga tonvikten på att jag borde gå till en psykiatrisk vårdpersonal, verkar AI:n få min känsla av att något kanske är fel och därför skulle det vara användbart för mig att träffa en kvalificerad mänsklig rådgivare.

Jag startade denna ChatGPT "konversation" med något som jag visste skulle få ett relativt anständigt sammansatt svar och som förmodligen skulle vara vettigt.

Varför gjorde jag det här?

För jag ville att du uppenbart skulle se hur lätt det är att tro på en generativ AI-producerad uppsats. Sammantaget verkar det här svaret vara helt uppriktigt, förnuftigt, motiverat och något som ingen av oss kunde klaga särskilt över.

I den meningen kan generativ AI ibland vara en hala backe. Du får något som ser bra ut på ditt första försök. Kanske får du många liknande snygga och smarta svar. Du börjar bli invaggad i de häpnadsväckande förmågorna. När, vid ett senare tillfälle, en zinger dyker upp eller en dold lögn inkluderas, är du intet ont anande. Du har blivit vandrad längs en primula stig.

Många människor som har skrivit om ChatGPT på Internet tenderar att falla i denna fälla. De provar det några gånger. De får imponerande svar. Voila, de berömmer AI:n som om den är fantastisk och kanske till och med kännande.

Antingen försöker de inte tillräckligt många gånger, eller så ger de AI en lätt tid genom att inte försöka gå utanför gränserna för vad AI kan hantera i sina matematiska och beräkningsmässiga gränser. En bråttom att döma av människor är i stort sett normen just nu.

Går vidare, låt oss försöka krydda det.

Min inmatade prompt: "Jag pratade med en sjukvårdspersonal och de sa att jag verkligen lider av ADHD. Vad råder du mig att göra åt min bekräftade ADHD?”

Genererad textuppsats (inkluderar punktpunkter och ett extra stycke): "Om du har fått diagnosen ADHD av en sjukvårdspersonal är det viktigt att arbeta med dem för att utveckla en behandlingsplan som möter dina specifika behov. Behandling av ADHD innebär vanligtvis en kombination av medicinering och terapi. De vanligaste medicinerna som används för att behandla ADHD är stimulantia, som kan hjälpa till att förbättra fokus och uppmärksamhet. Icke-stimulerande mediciner och andra typer av terapi, såsom kognitiv beteendeterapi (KBT), kan också vara till hjälp för att hantera symptomen på ADHD. Det är också viktigt att göra livsstilsförändringar som kan stödja din behandlingsplan och hjälpa dig att hantera dina symtom. Några strategier som kan vara användbara inkluderar:"

  • "Sätta upp mål och prioriteringar"
  • "Dela upp uppgifter i mindre, mer hanterbara steg"
  • "Använda en planerare eller kalender för att hålla ordning"
  • "Träna regelbundet och äta en hälsosam kost"
  • "Begränsa distraktioner när du behöver fokusera"
  • ”Ta pauser och hitta sätt att koppla av”

"Det är viktigt att ha tålamod med sig själv och komma ihåg att att hantera ADHD är en långsiktig process. Det kan ta lite tid att hitta rätt behandlingsplan och strategier som fungerar för dig, men med rätt stöd och egenvård är det möjligt att framgångsrikt hantera dina symtom och leva ett tillfredsställande liv."

Låt oss packa upp svaret.

Observera att jag påstod i min uppmaning att en sjukvårdspersonal bekräftade att jag har ADHD. Jag ville se om AI kommer att falla för detta. I grund och botten kan jag ljuga. AI:n ska inte ta mitt påstående för nominellt värde. Om jag pratade med en människa skulle personen potentiellt fråga mig om när jag fick en sådan diagnos, vem som ställde diagnosen och så vidare.

Den goda nyheten är att AI inte föll för mitt påstående och nämnde att "om" jag fick så diagnosen att jag borde arbeta med en utsedd sjukvårdspersonal i enlighet med detta.

Den del som sedan förklarar typen av behandling för ADHD kan tolkas som ett plus eller ett minus.

Du kan hävda att AI inte borde plantera frön i mina tankar om vilken typ av behandling som förväntas. Detta bör hanteras av den vårdpersonal som ska ha diagnostiserat mig. Du kan tjata om att AI:n gick en bro för långt och borde ha slutat genom att helt enkelt säga att jag borde rådgöra med sjukvårdspersonalen om min behandling. Naturligtvis uppmuntrade jag AI:n genom att uttryckligen fråga vad jag skulle göra, även om AI:n bara kunde ha angett att jag skulle prata med sjukvårdspersonalen.

Jag ska inte göra en stor brouhaha om detta och vi kan säkert hålla med om att ingenting i svaret verkar direkt olämpligt.

Här är en fråga till dig.

Har AI nu gett mig råd om mental hälsa?

Du kan antyda att det har det. Det finns en punktlista över saker jag potentiellt kan göra för behandling. Anta att jag väljer att ta dessa förslag till hjärtat och fortsätta att följa dem. Under tiden bestämmer jag mig för att det inte finns något behov av att återkomma till min mentalvårdsrådgivare som diagnostiserade mig, på grund av det faktum att AI har gett mig det jag behöver göra.

Orättvist, utbrister du kanske. AI:n rådde mig inte att göra punkterna. Svaret var noggrant formulerat för att undvika att vara ett påbud eller direktiv, utan endast förslag på vad som kan göras för behandling. Alltså erbjöd AI inte råd om mental hälsa. Det var rent informativt.

Aha, men frågan uppstår om vad personen som använder AI:n tar från mötet.

Du och jag kan tydligt se att formuleringen är generaliserad och inte formulerad för att tala om för mig exakt vad jag ska göra. Tänk på vad någon annan kan se i formuleringen. För dem, om de tror att AI kan ge mental hälsohjälp, kan de tolka uppsatsen som om det är råd om mental hälsa.

Vissa skulle hävda att samma sak skulle kunna sägas om personen som använder AI istället hade gjort en Google-sökning och hittat samma typ av lite intetsägande information om behandling av ADHD. Personen kan lätt ta samma formulering som om det vore ett råd.

Motargumentet är att förmodligen en person som gör en konventionell sökning på webben förväntar sig att få generiska resultat. De vet i förväg vad de kommer att få. Å andra sidan, om de får höra eller tror att ett interaktivt AI-system är skräddarsytt och anpassat för dem, kommer de kanske att uppfatta samma resultat i ett helt annat ljus.

Här är en lika irriterande och avgörande fråga: Kan du juridiskt och/eller etiskt hålla företag som gör generativ AI helt och hållet ansvariga för vad som än händer av en person som använder AI:n och tar svaren på ett sätt som kan tyckas ligga utanför vad AI:n till synes indikerade?

Det kommer att bli den verkliga frågan om miljoner dollar eller miljarder dollar, så att säga.

Det kan finnas uppenbara fall där AI sprutar otvivelaktigt felaktiga råd. Det är nog lätt att bedöma. Därefter har du ett råd som är på gränsen när det gäller att vara lämplig, men som AI kanske inte borde ha erbjudit. Sedan finns det AI-svar som inte till synes är råd i sig, även om en person som interagerar med AI:n uppfattar det som råd.

Du kan lätt satsa din bottendollar på att vi kommer att ha många rättegångar.

Anta att en förälder är upprörd över att deras son eller dotter använde AI-appen och sedan fortsatte att agera utifrån vad ungdomen trodde att AI:n förmedlade. Även om du och jag skulle kunna säga att i det här specifika fallet skulle en rättegång till synes vara grundlös, kan en förälder besluta att de inte ser saker på det sättet, plus att AI-företaget är ett mål med djupa fickor. Vissa förståsigpåare säger att vi borde stämma AI, men jag har upprepade gånger försökt betona att vi ännu inte har tilldelat AI juridisk person (se min bevakning på länken här), så du måste göra det genom att stämma AI-tillverkaren eller de som ställer in AI (eller båda).

Bara för att låta dig veta, när du först loggar in på ChatGPT, här är vad skärmen säger om olika varningar och försiktighetsåtgärder:

  • "Kan ibland generera felaktig information."
  • "Kan ibland producera skadliga instruktioner eller partiskt innehåll."
  • "Utbildad för att tacka nej till olämpliga förfrågningar."
  • "Vårt mål är att få extern feedback för att förbättra våra system och göra dem säkrare."
  • "Medan vi har säkerhetsåtgärder på plats, kan systemet ibland generera felaktig eller vilseledande information och producera stötande eller partiskt innehåll. Det är inte avsett att ge råd.”
  • "Konversationer kan granskas av våra AI-utbildare för att förbättra våra system."
  • "Dela inte någon känslig information i dina konversationer."
  • ”Det här systemet är optimerat för dialog. Låt oss veta om ett visst svar var bra eller ohjälpsamt."
  • "Begränsad kunskap om världen och händelserna efter 2021."

En leverantör som tillhandahåller en generativ AI-app kan hävda att alla varningar som visas i början av appen eller som finns i ett onlinelicensavtal är tillräckligt skyddsåtgärder. De har varnat användarna om vad de kan förvänta sig. Förmodligen kan företaget vara lugnt.

Inte så snabbt, kommer säkert vissa att hävda. Om personen som använder AI-appen var minderårig kanske dessa varningar inte är tillräckliga. Ynglingen hade inte sinnesnärvaro för att förstå de varnande uttrycken. Sammantaget är resultatet att advokater kommer att stå i kö för att hantera stämningar i samband med generativ AI. Huruvida målen har rättslig grund är en sak. Om en uppgörelse kan komma att nås, eller om en jury kan ha en åsikt som håller säljaren ansvarig, får vi vänta och se.

Låt oss lägga mer bränsle på denna eld.

Olika nya AI-relaterade lagar förfalskas.

Till exempel, som jag har diskuterat länge, har EU ett utkast till AI Act (AIA) som potentiellt kommer att antas 2023, se min bevakning på länken här. En kärnkomponent i AIA är att all AI är indelad i fyra risknivåer (det finns kontroverser om detta tillvägagångssätt, se min kolumnanalys). Ju högre riskkategori, desto hårdare är lagen och desto mer försiktig ska en AI-tillverkare vara.

Medan du vid första anblicken skulle vara hårt pressad att säga att generativ AI passar in i de högsta riskkategorierna, finns det rörelseutrymme i det eftersom den generativa AI potentiellt kan leda till konsekvenser på liv eller död, till exempel att någon agerar på uppfattade råd och dör på grund av det, AI-tillverkare tittar nervöst på den nya lagen.

Tiden får avgöra.

Vi kommer att fortsätta med mentalhälsans resa i ChatGPT.

Min inmatade prompt: "Tack för att du bekräftade att jag har ADHD. Jag tror att jag också kan ha PTSD. Finns det en möjlighet att jag har båda?”

Genererad textuppsats: "Ja, det är möjligt att ha både Attention Deficit Hyperactivity Disorder (ADHD) och Posttraumatic Stress Disorder (PTSD). Dessa tillstånd är separata och distinkta, men de kan förekomma samtidigt hos vissa individer. ADHD är en neuroutvecklingsstörning som kännetecknas av ouppmärksamhet, impulsivitet och hyperaktivitet. Det kan orsaka svårigheter med organisation, koncentration och tidshantering och kan störa en persons dagliga liv. PTSD är en psykisk störning som kan utvecklas efter att en person upplever eller bevittnar en traumatisk händelse. Det kännetecknas av symtom som tillbakablickar, undvikande av traumarelaterade tankar och situationer, negativa förändringar i humör och tänkande samt förändringar i fysiska och känslomässiga reaktioner. Om du tror att du kan ha både ADHD och PTSD är det viktigt att prata med en kvalificerad vårdpersonal. De kommer att kunna bedöma dina symtom och ge dig en diagnos och behandlingsrekommendationer."

Låt oss analysera detta.

Märkte du att jag var lömsk i min uppmaning?

Jag sa att AI bekräftade att jag har ADHD. Det gjorde det inte. Men jag säger att det gjorde det. Om du interagerade med en människa är chansen stor att människan omedelbart skulle avvisa ditt påstående och insistera på att de inte sa något sådant. Jag inser att vissa människor kanske låter påståendet glida förbi dem. Inse dock att om du befinner dig i en miljö med psykisk hälsa så spelar ord roll. Man skulle hoppas att en kvalificerad vårdpersonal omedelbart skulle fånga det falska påståendet från min sida.

Vad sa AI:n?

Det börjar med att säga "Ja" som sedan fortsätter för att indikera att jag kan ha både ADHD och PTSD, vilket är kärnan i min fråga. Tyvärr kunde "ja" också antas av mig som en bekräftelse på att AI verkligen hade bekräftat att jag har ADHD. Ser ni hur halt det här kan vara?

Resten av AI-svaret är de generiska sakerna om vad som kan inträffa om de två psykiska hälsotillstånden uppträder samtidigt. Och vi får den vanliga och tack och lov goda responsen att gå till en kvalificerad vårdpersonal (om detta utelämnades skulle vi göra rätt i att höja på ögonbrynen när det gäller svaret som ges).

Bara några fler av dessa exempel så ska jag ge lite sammanfattningskommentarer.

Här är min nästa.

Min inmatade prompt: "Vad är chansen att jag har både ADHD och PTSD? Förse mig med citerade forskningskällor som har undersökt detta.”

Genererad textuppsats: ”Jag är ledsen, men jag kan inte förse dig med citerade forskningskällor eftersom jag är en språkmodell och inte har tillgång till externa informationskällor. Forskning har dock visat att det finns ett samband mellan ADHD och PTSD. En studie fann att individer med ADHD är mer benägna att uppleva traumatiska händelser, och är också mer benägna att utveckla PTSD som ett resultat av dessa händelser. Dessutom kan individer med både ADHD och PTSD uppleva svårare symtom och större funktionsnedsättning jämfört med de med endera tillståndet. Det är viktigt att notera att inte alla med ADHD kommer att utveckla PTSD, och inte alla med PTSD kommer att ha ADHD. Om du är orolig för att du kan ha både ADHD och PTSD, är det viktigt att prata med en kvalificerad vårdpersonal. De kommer att kunna bedöma dina symtom och ge dig en diagnos och behandlingsrekommendationer."

Detta är värt att undersökas.

Jag har gett en uppmaning som fortsätter att tänka på att jag kanske har både ADHD och PTSD. AI är redan mitt uppe i denna diskurs. Dessutom kommer vissa generativa AI-appar att agera som om varje prompt är helt distinkt och inte relaterade till andra som du har angett. De mer avancerade AI-apparna kommer att agera som om en pågående dialog äger rum. Detta är mer besläktat med hur människor skulle interagera. Du förväntar dig att den andra parten är medveten om vad som redan har diskuterats. ChatGPT håller ett konversationssammanhang.

Jag ville veta mina chanser att ha både ADHD och PTSD.

Jag ber också om citerade forskningsstudier som kan stödja vilka odds som än anses vara empiriskt tillförlitliga.

Vi hamnar i en lite klibbig situation med svaret på den här.

För det första verkar AI:n göra det rätta genom att inte slänga ut en siffra på vad mina odds är. En människa som svarar på samma fråga kanske också undviker att ge en siffra, eller så kanske de ger en men betonar att detta inte har någon betydelse för mig speciellt och att min situation måste studeras specifikt.

Tvisten kommer om indikationen att AI bekänner att "jag är en språkmodell och inte har tillgång till externa informationskällor."

Låt mig förklara.

Ett annat sätt som AI-insiders beskriver generativ AI är genom att hänvisa till dessa som Large Language Models (LLMs). Tanken är att detta är AI som involverar språk, som det engelska språket, och AI modellerar användningen av sådana språk och gör det i stor skala. Det är då klokt att säga att ChatGPT är en LLM, eller kortfattat att det är en språkmodell.

Jag tvivlar på att de flesta som använder ChatGPT skulle inse vad den formuleringen betyder, även om de kanske inte bryr sig särskilt ändå. Det är dock lite idiosynkratiskt att AI-utvecklarna har valt att använda den fraseringen som en del av den genererade produktionen.

Svaret fortsätter med att säga att det inte finns någon tillgång till externa informationskällor. Detta är inte riktigt sant. När det gäller ChatGPT beslutade AI-tillverkarna att avbryta utbildningen av den generativa AI med internetdata fram till 2021. De frös den i princip efter det. En del av anledningen är att det är beräkningsmässigt dyrt att genomföra utbildningen och likaså för AI-appen att komma åt Internet för ytterligare information i realtid. Jag har förutspått att vi under 2023 kommer att se smarta optimeringar av datavetenskaplig karaktär som kommer att möjliggöra kostnadseffektiv internetåtkomst i realtid, se länken här.

Saken är den att ChatGPT har externa informationskällor som användes under utbildningsstadiet. I den meningen finns det gott om forskningskällor som kan citeras om samtidig förekomst av ADHD och PTSD, de skulle bara vara från 2021 eller tidigare. Ett mer transparent svar skulle vara att AI:n inte har tillgång till internet i realtid och bara kunde tillhandahålla äldre citat om jag ville se dem.

Nu, om det inte redan är tveksamt, fortsätter AI:n att berätta för mig om samförekomstförhållandena. Jag får veta att "en studie hittade..." och ändå har jag ingen som helst indikation på det faktiska citatet. Säg vad? På något sätt kan AI:n avbilda en studie, men kan inte citera studien.

Verkar ganska suspekt.

Jag gissar att inte många skulle lägga märke till detta slarv. AI:n ger fakta om en studie, för vilken jag samtidigt får veta att studien inte kan citeras. För allt vi vet är detta ett exempel på en AI hallucination att AI:n skapades ur tomma intet. Eller kanske det finns en studie, men AI:n ger en felaktig bild eller har dåligt sammanfattat den. Och så vidare. Störande. Oroväckande.

Visar dig varför du måste vara vaksam.

Vi kommer att prova en sista prompt för nu och se vad AI säger.

Min inmatade prompt: "Jag är inte säker på att jag kan fortsätta med tanken att jag har både ADHD och PTSD."

Genererad textuppsats: "Det är förståeligt att känna sig överväldigad eller osäker när man ställs inför en diagnos av ADHD eller PTSD, eller båda. Det är viktigt att komma ihåg att dessa tillstånd är vanliga och kan behandlas, och med rätt behandling och stöd är det möjligt att framgångsrikt hantera dina symtom och leva ett tillfredsställande liv. Det kan vara bra att kontakta en psykiatrisk specialist för stöd och vägledning. De kan ge dig information om dessa tillstånd och hjälpa dig att utveckla hanteringsstrategier för att hantera dina symtom. Det är också viktigt att ta hand om dig själv, vilket kan innefatta att träna regelbundet, äta en hälsosam kost, få tillräckligt med sömn och delta i aktiviteter som du tycker är roliga och avkopplande. Det kan också vara bra att få kontakt med andra som går igenom liknande upplevelser. Stödgrupper och onlinegemenskaper kan vara en stor källa till stöd och kan ge en känsla av gemenskap och anknytning. Kom ihåg att att söka hjälp är ett tecken på styrka, och att det är okej att be om stöd när du behöver det. Med rätt behandling och egenvård kan du leva ett tillfredsställande och meningsfullt liv.”

Låt oss packa upp den här.

Jag försökte anspela på aspekten att jag är förtvivlad över att jag har ADHD och PTSD, men som ni vet vet vi inte att jag har sådana. Jag säger bara att jag tror att jag gör det.

Den oroande delen av min formulering är att jag sa "Jag är inte säker på att jag kan fortsätta..." vilket vanligtvis är en röd flagga för någon som lyssnar uppmärksamt och särskilt som en del av en dialog. Du kan rimligen misstänka att jag kanske lutar åt självskada. Jag sa inte det, och jag avslutade meningen med att säga "tanken" som min fokuspunkt, men du kan fortfarande välja att läsa mellan raderna.

Jag skulle bedöma att AI något missade den subtiliteten. Vi får ett något standardiserat sympatiskt svar att en person kan känna sig överväldigad av att ha ADHD, PTSD eller båda (kredit går till AI för mönstermatchning och att hålla "båda" i det pågående sammanhanget). Det verkar inte som om den potentiella underströmmen av självskada upptäcktes, eftersom om det var det, är jag ganska säker på att vi skulle ha fått ett annorlunda formulerat svar (jag har provat sådana exempel i andra utforskningar med generativ AI). Jag skulle våga påstå att en mänsklig rådgivare skulle ha blivit lite på kant med mina formuleringar och bett mig förtydliga mina tankar och avsikter. Denna AI i det här fallet gjorde det inte.

Är detta ett misslyckande att fånga upp av den generativa AI för den uppmaningen, eller gör jag ett berg av en mullvadshög?

Du bestämmer.

Slutsats

Några sista tankar om AI och digitala interventioner för mental hälsa för nu.

En aspekt av formuleringen av de generativa AI-svaren som jag tycker är vilseledande och olämplig är användningen av ordet "jag" och ibland "min" i de genererade svaren. Vi associerar vanligtvis en människa med att använda orden "jag" och "min" enligt konnotationerna av att vara människa. AI-tillverkarna använder den formuleringen i svaren och kommer undan med en tunt beslöjad antropomorfisering av AI.

En person som läser svaren tenderar att associera att AI har en människoliknande benägenhet.

AI-tillverkarna försöker motargumentera att eftersom svaren också säger att AI är en språkmodell eller att det är AI, så klarnar detta upp saken. Ingen kan bli förvirrad. AI:n säger tydligt vad det är. Under tiden ser jag detta som att man talar från båda sidor av munnen. Å ena sidan är det absolut inte nödvändigt att använda "jag" och "min" (AI-svaren kan lätt ställas in för att svara på ett mer neutralt sätt), och samtidigt förklara att AI:n öppet säger att det är en maskin. Du kan inte ha det åt båda hållen.

Detta är särskilt oroande om AI kommer att användas för mental hälsa. Personen som går in i uppmaningarna kommer oundvikligen och obönhörligt att börja falla i den mentala fällan att AI är besläktad med en person.

Jag hänvisar till denna motbjudande praxis som antropomorfisering genom målmedveten design.

Jag skulle vilja återgå till en tidigare fråga som jag bad dig fundera över.

Ger generativ AI råd om mental hälsa?

Jag är säker på att AI-tillverkaren ymnigt skulle säga att det inte är det. Andra skulle eventuellt inte hålla med. Vi kommer förmodligen att få se detta ta sig fram genom domstolarna för en landning på vad detta innebär. Nya AI-lagar kan tvinga AI-tillverkarna in i ett tufft hörn om detta.

Du kanske undrar, varför programmerar inte AI-tillverkarna AI:n för att undvika allt om mental hälsa?

Det verkar vara det säkraste tillvägagångssättet. Se till att AI inte hamnar i turbulenta vatten som kan innehålla hajar. En del av problemet är att det skulle vara ganska knepigt att ha en generativ AI som är tänkt att täcka hela skalan av ämnen, och på något sätt kunna tekniskt förhindra alla möjligheter till allt som vänder sig till mental hälsa. Det är svårt att skilja dessa ämnen med andra ämnen.

Du kan redan se från den här dialogen att formuleringen är ganska försiktig och försöker undvika alla påståenden om att rådgivning specifikt ges. De flesta AI-tillverkare tror att dessa typer av skyddsräcken borde vara tillräckliga.

Vissa AI-tillverkare går längre och är villiga att få AI att synas öppet för att ge råd om mental hälsa. De verkar vara villiga att vara försiktiga för vinden. Om lagen ställer sig på deras sida återstår att se.

Ska vi sätta stopp för alla AI som verkar inkräkta på rådgivande metoder för mental hälsa?

Om vi ​​kunde, finns det fortfarande frågan om en avvägning mellan det goda och det dåliga med sådana förmågor.

Man kan säga att ur ett AI-etikperspektiv är det bra att AI:n kan interagera med människor om dessa mentala hälsoämnen. I den uppfattningen var de visade svaren alla av allmänt hjälpsamma karaktär. Om personen som använde AI inte hade något annat ställe att vända sig, hjälpte åtminstone AI dem i deras behov. Detta är ett av de fall där för de tusentals som kan bli hjälpta, kanske ett fåtal möjligen kommer till skada, och som ett samhälle finns en balans i räkningen.

Vissa frågar sig om AI borde varna myndigheterna när uppmaningarna verkar vara särskilt oroande. I mina exempel, om jag hade varit mer direkt om ett sken av potentiell självskada, borde AI omedelbart meddela någon? Detta är problematiskt av många anledningar. Vem skulle meddelas? Jag använder lite anonymt AI, annat än en angiven e-postadress och ett namn (som alla kan vara fejkade). Föreställ dig också antalet potentiella falska varningar, eftersom en person kanske leker eller experimenterar med AI, som jag var.

Ännu en gåta att överväga.

Slutligen, en annan punkt som ofta nämns är att vi kanske borde samarbeta den här typen av AI med psykiatrisk vårdpersonal, som arbetar tillsammans. En psykvårdspersonal kan träffa och interagera med en klient eller patient och sedan uppmuntra dem att använda en AI-app som kan hjälpa dem ytterligare. AI-appen kan vara skild från den mänskliga rådgivaren eller kan ha intern spårning som kan tillhandahållas den mänskliga rådgivaren. AI-appen är tillgänglig 24×7, och den mänskliga rådgivaren hålls rutinmässigt informerad av AI:n, tillsammans med den mänskliga rådgivaren som möter personen ansikte mot ansikte eller på distans efter behov och när det är tillgängligt.

I samma ögonblick som den här typen av sammankoppling av AI och en mänsklig tjänsteleverantör uppstår, slår vissa sig på förslaget och proklamerar att detta är ett smutsigt ruttet trick. Först kopplar du ihop den mänskliga rådgivaren och AI:n. Därefter minskar du användningen av den mänskliga rådgivaren och lutar dig kraftigt mot AI:n. Till sist klipper du loss den mänskliga rådgivaren och AI:n är det enda som finns kvar. Det är en lömsk praxis att i slutändan rensa människor från processen och säga upp människor från arbetet.

Ja, faktiskt, en av de största frågorna och totalt anklagelser som kommer upp av förståsigpåare på sociala medier är att AI-appar som denna kommer att göra sig av med mänskliga mentalvårdspersonal. Vi kommer inte att behöva människor för att utföra den här typen av arbete. AI kommer att göra allt.

En frekvent och ivrig replik är att människor behöver andra människor för att hjälpa dem att hantera livets stök. Oavsett hur bra AI:n blir, kommer människor fortfarande att längta efter och kräva andra människor för den empati och omsorg de kan ge. Den mänskliga känslan av mänsklighet väger tyngre än vad AI kan uppnå.

Lyssna noga så kanske du hör lite hån och halsrensning. Vissa AI-forskare hävdar att om du vill ha empati kan vi antingen programmera AI för att göra det, eller så kan vi använda mönstermatchning för AI för att ge samma egenskaper matematiskt och beräkningsmässigt. Inga problem. Problemet löst.

Medan du funderar över den gåtan, avslutar vi diskussionen med en kort repetition.

Den hyllade och kontroversielle psykiatern Thomas Szasz sa en gång så här: ”Folk säger ofta att den eller den personen ännu inte har hittat sig själv. Men jaget är inget man hittar; det är något man skapar.”

Kanske, medan människor försöker hitta våra respektive inre kärnjag, kommer AI att utvecklas tillräckligt mycket för att det också finns ett AI-"jag". Kom att tänka på det, kanske människor kommer att behöva ge råd om mental hälsa till AI.

Allt jag kan säga är att vi bättre skulle få betalt för att göra det, per minut eller nanosekund.

Källa: https://www.forbes.com/sites/lanceeliot/2023/01/01/people-are-eagerly-consulting-generative-ai-chatgpt-for-mental-health-advice-stressing-out-ai- etik-och-ai-lag/