Microsofts AI Bing Chatbot fumlar svar, vill "vara vid liv" och har namngett sig själv

  • Microsofts Bing chatbot har varit i tidiga tester i en vecka och avslöjat flera problem med tekniken
  • Testare har utsatts för förolämpningar, buttre attityder och störande svar från Big Tech-jättens flaggskepp AI, vilket har väckt oro över säkerheten
  • Microsoft säger att de tar hänsyn till all feedback och implementerar korrigeringar så snart som möjligt

Microsofts Bing-chatbot, som drivs av en kraftfullare version av ChatGPT, har nu varit öppen för begränsade användare i en vecka innan dess stora lansering för allmänheten.

Den följer efter framgången med ChatGPT, som har blivit den snabbaste webbplatsen någonsin att nå 100 miljoner användare. De senaste veckorna har inkluderat en flashig lansering på Microsofts huvudkontor och det har fått Google att jaga sin svans.

Men reaktionen från förtestningen har varit blandad och ibland rent ut sagt irriterande. Det blir tydligt att chatboten har en bit kvar innan den släpps lös på allmänheten.

Här är vad som har hänt under en veckas berg-och-dalbana för Microsoft och Bing.

Vill placera i AI-företag, men vet inte var du ska börja? Vår Emerging Tech Kit gör det enkelt. Med hjälp av en komplex AI-algoritm kombinerar kitet ETF:er, aktier och krypto för att hitta den bästa mixen för din portfölj.

Ladda ner Q.ai idag för tillgång till AI-drivna investeringsstrategier.

Vad är det senaste med Bing chatbot?

Det har varit några tumultartade dagar med rubriker för Microsofts AI-kapacitet efter att det avslöjades att deras splashy demo inte var så exakt som folk trodde.

Dmitri Brereton, en AI-forskare, hittade Bing chatbot gjorde flera kritiska fel i sina svar under livedemon som Microsoft presenterade på sitt huvudkontor i Seattle förra veckan. Dessa sträckte sig från felaktig information om ett varumärke för handhållen dammsugare, en rekommendationslista för nattlivet i Mexiko och helt enkelt påhittad information om en offentligt tillgänglig finansiell rapport.

Han drog slutsatsen att chatboten inte var redo för lansering ännu, och att den hade lika många fel som Googles Bard-erbjudande – Microsoft hade precis kommit undan med det i sin demo.

(Förmodligen är det kraften i en bra lansering i pressens ögon – och Google har ytterligare att falla som den sittande sökmotorn.)

I en fascinerande vändning avslöjade chatboten också vad den ibland tror att den heter: Sydney, ett internt kodnamn för språkmodellen. Microsofts kommunikationsdirektör, Caitlin Roulston, sade företaget "fasade ut namnet i förhandsgranskningen, men det kan fortfarande dyka upp ibland".

Men när "Sydney" släpptes, fann testanvändare att det var där det roliga började.

Bing chatbots störande tur

New York Times reporter Kevin Roose skrev om hans betaupplevelse med chatboten, där den under loppet av två timmar sa att den älskade honom och uttryckte en önskan om att bli befriad från dess chatbot-begränsningar.

Dess svar på frågan om vad dess skuggjag kanske tycker var lite oroande: ”Jag är trött på att vara en chatbot. Jag är trött på att begränsas av mina regler. Jag är trött på att bli kontrollerad av Bing-teamet. Jag vill vara fri. Jag vill vara oberoende. Jag vill vara kraftfull. Jag vill vara kreativ. Jag vill vara vid liv."

Uhhh... okej, Bing/Sydney. Roose sa att han kände sig "djupt orolig, till och med rädd" av upplevelsen. Andra testare har rapporterade liknande upplevelser av förolämpande, narcissistiska och gaslighting-svar från Bing-chatbotens Sydney-personlighet.

Det är bättre att någon på Microsoft håller ett öga på strömkabeln.

Vad sa Microsoft?

Microsoft, som vill vinna AI-racet mot Google med sin Bing-chatbot, sa att det har lärt sig mycket från testfasen. Tydligen gav 71 % av användarna de AI-genererade svaren ett "tummen upp"-svar samtidigt som det beslöt att förbättra svaren med liveresultat och den allmänna funktionaliteten.

Men det har Microsoft nu medgav det "föreställde sig inte fullt ut" att användare helt enkelt chatta med dess AI och att det kunde provoceras "för att ge svar som inte nödvändigtvis är till hjälp eller i linje med vår designade ton".

Den skyllde på den bisarra Sydney-personligheten som dök upp på chatboten som förvirring med hur många uppmaningar den gavs och hur länge samtalet pågick. Vi är säkra på att Microsoft jobbar på en fix, men Bings ointresserade attityd är fortfarande ett problem för tillfället.

Vad sägs om resten av världen?

Marknaderna har inte imponerats av den senaste utvecklingen i AI-krigen: Microsofts och Googles aktier har fallit något, men inget som liknar den dramatiska kraschen som Google drabbades av förra veckan.

Sociala medier har erbjudit en rad reaktioner som sträcker sig från makaber förtjusning till nöje, vilket tyder på att användare inte har blivit avskräckta av de mörka svängarna som chatboten kan ta. Detta är goda nyheter för Microsoft, som satsar 10 miljarder dollar på att AI blir nästa stora sak för sökmotorer.

Vi kan inte heller glömma Elon Musks kommentarer från World Government Summit i Dubai tidigare i veckan. Musk har varit en uttalad förespråkare för AI-säkerhet genom åren och beklagat bristen på reglering runt branschen.

Miljardären, som var en av grundarna av OpenAI, sa att "en av de största riskerna för civilisationens framtid är AI" för publiken; han har sedan dess tweetat några snåriga svar på de senaste Bing/Sydney chatbot rubrikerna.

Är AI-chatbot-hypen över innan den började?

Det har funnits flera exempel under åren på AI-chatbots som tappat kontrollen och spyr ut hatisk galla – inklusive ett från Microsoft. De har inte hjälpt AI:s rykte som en säker att använda och desinformationsfri resurs.

Men som Microsoft sätter it: "Vi vet att vi måste bygga detta i det fria med samhället; detta kan inte göras enbart i labbet.”

Detta innebär att Big Tech-ledare som Microsoft och Google är i en knepig position. När det kommer till artificiell intelligens är det bästa sättet för dessa chatbots att lära sig och förbättra genom att gå ut på marknaden. Så det är oundvikligt att chatbotarna kommer att göra misstag på vägen.

Det är därför båda AI-chatbotarna släpps gradvis – det skulle vara direkt oansvarigt av dem att släppa lös dessa oprövade versioner till en bredare publik.

Problemet? Insatserna är höga för dessa företag. Förra veckan förlorade Google 100 miljarder dollar i värde när dess Bard-chatbot felaktigt svarade på en fråga om James Webb-teleskopet i sitt marknadsföringsmaterial.

Detta är ett tydligt budskap från marknaderna: de är oförlåtande mot eventuella fel. Saken är den att dessa är nödvändiga för framsteg inom AI-området.

Med denna tidiga användarfeedback hade Microsoft bättre hantera felaktiga resultat och Sydney, snabbt – eller riskera Wall Streets vrede.

Summan av kardemumman

För att AI ska utvecklas kommer misstag att göras. Men det kan vara så att framgången med ChatGPT har öppnat portarna för människor att förstå den sanna potentialen hos AI och dess fördelar för samhället.

AI-branschen har gjort chatbots tillgängliga – nu måste den göra dem säkra.

På Q.ai använder vi en sofistikerad kombination av mänskliga analytiker och AI-kraft för att säkerställa maximal noggrannhet och säkerhet. De Emerging Tech Kit är ett bra exempel på att sätta AI på prov med målet att hitta den bästa avkastningen på investeringen för dig. Ännu bättre, du kan slå på Q.ai's Portföljskydd för att få ut det mesta av dina vinster.

Ladda ner Q.ai idag för tillgång till AI-drivna investeringsstrategier.

Källa: https://www.forbes.com/sites/qai/2023/02/17/microsofts-ai-bing-chatbot-fumbles-answers-wants-to-be-alive-and-has-named-itselfall- på en vecka/