Så här planerar OpenAI att rensa ChatGPT från falsk information

OpenAI tillkännagav den 31 maj sina ansträngningar att förbättra ChatGPT:s matematiska problemlösningsförmåga, i syfte att minska fall av artificiell intelligens (AI) hallucinationer. OpenAI betonade mildrande hallucinationer som ett avgörande steg mot att utveckla anpassad AGI.

I mars drev introduktionen av den senaste versionen av ChatGPT, GPT-4, artificiell intelligens ytterligare in i mainstream. Generativa AI-chatbotar har dock länge brottats med saklig noggrannhet, och ibland genererat falsk information, vanligen kallad "hallucinationer". Ansträngningarna att minska dessa AI-hallucinationer tillkännagavs genom ett inlägg på deras hemsida.

AI-hallucinationer hänvisar till tillfällen där artificiell intelligens-system genererar utdata som är faktiskt felaktiga, vilseledande eller inte stöds av verkliga data. Dessa hallucinationer kan manifestera sig i olika former, som att generera falsk information, hitta på obefintliga händelser eller personer eller tillhandahålla felaktiga detaljer om vissa ämnen.

OpenAI genomförde forskning för att undersöka effektiviteten av två typer av feedback - "resultatövervakning" och "processövervakning." Resultathandledning innebär återkoppling baserad på slutresultatet, medan processledning ger input för varje steg i en tankekedja. OpenAI utvärderade dessa modeller med hjälp av matematiska problem, genererade flera lösningar och valde den högst rankade lösningen enligt varje feedbackmodell.

Efter noggrann analys fann forskargruppen att processövervakning gav en överlägsen prestation eftersom den uppmuntrade modellen att följa en mänskligt godkänd process. Däremot visade sig övervakning av resultat vara mer utmanande att granska konsekvent.

OpenAI insåg att implikationerna av processövervakning sträcker sig bortom matematik, och ytterligare undersökning är nödvändig för att förstå dess effekter inom olika domäner. Den uttryckte möjligheten att om de observerade resultaten stämmer i bredare sammanhang, kan processövervakning erbjuda en gynnsam kombination av prestation och anpassning jämfört med resultatövervakning. För att underlätta forskningen släppte företaget offentligt den fullständiga datauppsättningen av processövervakning, vilket bjöd in utforskning och studier inom detta område.

Relaterat: AI-efterfrågan katapulerar Nvidia kort till $1T-klubb

Även om OpenAI inte gav uttryckliga exempel som föranledde deras undersökning av hallucinationer, exemplifierade två senaste händelser problemet i verkliga scenarier.

I en nyligen inträffad incident erkände advokat Steven A. Schwartz i fallet Mata v. Avianca Airlines att man förlitade sig på chatboten som en forskningsresurs. Informationen från ChatGPT visade sig dock vara helt tillverkad, vilket belyser problemet.

OpenAI:s ChatGPT är inte det enda exemplet på system för artificiell intelligens som stöter på hallucinationer. Microsofts AI undersökte under en demonstration av sin chatbot-teknologi i mars resultatrapporter och genererade felaktiga siffror för företag som Gap och Lululemon.

Magazine: 25 XNUMX handlare satsar på ChatGPT:s aktieval, AI suger vid tärningskast och mer

Källa: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information