The Cry Wolf Moment of AI Hype är ohjälpsam

Även om jag är någon som studerar slutet av mänsklighetens scenarier, tror jag att "expertbrevet" som föreslår ett 6-månaders AI-moratorium eller det nyare uttalandet att AI-risken är på nivån för pandemi och nukleär risk, båda är överhypade. Den ännu vildare åsikten att vi måste stänga ner AI är oansvarig. Varje oro måste stå i proportion till de risker vi står inför. Just nu är vi inte i någon omedelbar fara från AI.

Nuvarande AI:er är inte kapabla att ta över samhället. De har inga känslor och förtjänar inte skydd som människors liv gör. De är inte superintelligenta och överträffar inte människor på något generellt sätt. De tänker faktiskt inte alls. Just nu, om de matas med mycket data, är AI: er mycket bra på specifika uppgifter som beräkning och förutsägelse. Det är inte oroande, det är funktioner som dessa system har genom design. Löftet om AI inkluderar att lösa cancer, omvandla industriell produktion, modellera framtidsscenarier och hantera miljöutmaningar. Med det sagt finns det legitima skäl att kritisera nuvarande AI:er för resursanvändning, transparens, partiskhet, cybersäkerhet och dess framtida inverkan på sysselsättningen.

AI:er är beräkningsmässigt dyra - vilket betyder att de är ett stort slöseri med knapphändig fossil energi. Detta måste åtgärdas omedelbart. Men det är ingen existentiell fråga, det är en fråga om rationell resursanvändning. Det faktum att AI:er som förlitar sig på stora och ineffektiva datamodeller blir för dyra att spåra och undersöka av akademin eller regeringen är ett verkligt problem. Men det går omedelbart att fixa. Konsortier av akademiska elitinstitutioner eller regeringar skulle kunna gå tillsammans och dela datorresurser på det sätt som de har gjort för superdatorer.

Large Language Models (LLM) är AI-modeller som kan generera naturliga språktexter från stora mängder data. Ett problem med det är att dessa texter är direkt härledda från andra människors ärliga intellektuella bidrag. De är faktiskt stulna. Generativ AI, i synnerhet, kombinerar både konsument- och organisationsdata såväl som kreativt innehåll i ett starkt brott mot upphovsrätten. Detta är allvarligt, men inte existentiellt, och dessutom är EU, lobbyister från Hollywood och de "fem stora" bokförlagen redan på fallet. Räkna med att detta saktar ner AI:s kraft. I den nuvarande takten kommer AI:er att få slut på bra träningsdata långt innan det närmar sig sentience.

Algoritmer som redan används för att beräkna våra skatter, välja våra onlineflöden eller sätta människor i fängelse har en slående brist på transparens. Men detta har varit fallet i flera år och har ingenting att göra med den senaste AI-utvecklingen. AI-bias är en funktion och inte en bugg. Stereotypning är i själva verket den huvudsakliga metoden genom vilken sådana modeller fungerar. Förutom att fördomarna är gömda i ogenomträngliga lager av maskinellt resonemang som är svårfångade för människor, experter eller inte. Det vi bör ifrågasätta är visdomen hos utvecklarna som utvecklade sådana system, inte förmågan hos systemet de skapade, vilket är givet. System kommer sällan att vara bättre än visdomen eller avsikterna hos dem som bygger eller driver det.

AI-träningsdata speglar de fördomar som finns i samhället från vilka dessa data samlades in. Återanvändning av dålig träningsdata är en oroande praxis som redan förorenar AI-modeller. Aktuella AI-metoder förstärker helt enkelt bias för att snabbt nå ett resultat. Detta är visserligen motsatsen till vad vi vill. Vad vi vill göra är att använda teknik för att skydda mänskliga fel. Att oroa sig för maskinfel är en slösaktig användning av mänsklig intelligens.

Trots metaforen för det "neurala nätverket" liknar nuvarande AI inte hjärnor på något sätt. Nuvarande AI-system kan inte resonera analogt som människor gör. Det här är bra. Vi kanske faktiskt inte vill ha den typ av AI-anpassning som eldsjälar förespråkar och försöker efterlikna. Maskiner ska vara annorlunda än människor. Det är så vi kan maximera varandras styrkor. Och hur vi kan hålla maskiner åtskilda och isär. Maskiner ska inte ha några intressen att ställa in.

AI representerar alltmer ett betydande hot mot cybersäkerhet som en tillgång för kriminella och fientliga stater. Men cybersäkerhet är en mogen bransch med massor av experter väl rustade för att hantera utmaningen. Det finns ingen anledning att stänga av AI på grund av rädsla för cybersäkerhet.

Avbrott i anställningen på grund av AI har varit en policyfråga i flera år, först med robotar, nu med mjukvarubaserade AI-system. Det betyder att regeringar kommer att vara redo att ta itu med det. MIT Work of The Future-studien fann att oron för arbetslöshet på grund av robotar var överskattad. Människor har alltid hittat sätt att arbeta och kommer att göra det i framtiden också. Kommer tillverkningen att omvandlas av AI? Det händer redan, men på ett ganska kontrollerat sätt.

Från tid till annan lider AI av överhypade löften om nuvarande funktionalitet eller framtida omfattning. De första AI-vintrarna startade 1974–1980, då den amerikanska regeringen drog tillbaka sin finansiering. Den andra var från 1987–1993, då kostnaderna eskalerade och AI misslyckades med att hålla sina höga löften.

I väntan på att nya paradigm ska komma, under perioden 2025–2030, kommer vi sannolikt att gå in i en tredje AI-vinter. Åtminstone jämfört med den varma AI-sommaren vi utlovas. Anledningen är att, trots hypen, av alla de skäl som beskrivs ovan, är stora språkmodeller på väg att nå sin maximala användbarhet och kommer så småningom att behöva ersättas av beräkningsmässigt mer eleganta metoder som är mer transparenta.

En sådan kandidat är hyperdimensionell beräkning som skulle få maskiner att resonera mer effektivt eftersom de ger maskiner semantisk förståelse, förmågan att bearbeta mening och sammanhang bakom verklig information. Just nu förstår AI-system inte relationerna mellan ord och fraser, de är helt enkelt bra på att gissa. Det är otillräckligt. Vi kommer så småningom att behöva förkroppsligad AI, eftersom tänkande är knutet till perception av rymden. Det är definitivt fallet inom tillverkning som är ett mycket fysiskt spel. Vi kommer också att behöva AI som är kapabel till mänskliga minnesfunktioner som att prioritera baserat på att förgrunda viss information och att bakgrundsbilda annan information. Att glömma är ett verktyg som människor använder för att tänka abstrakt, gå vidare från föråldrade organisatoriska metoder, fatta beslut och för att stanna i nuet och är inte bara ett fel. Inga maskiner kan göra det särskilt bra ännu.

Under tiden behöver vi reglera, men inte denna sekund. Och när vi reglerar är det bättre att göra det bra. Dålig reglering av AI kommer sannolikt att förvärra situationen. Att väcka regulatorer till den här utmaningen kan vara till hjälp, men jag är inte säker på att den nuvarande generationen regulatorer är redo för den typen av genomgripande förändringar som skulle behövas för att göra det bra. Det skulle innebära inskränkning av kraftfulla företag (möjligen alla börsnoterade företag), begränsning av AI:s användning i styrning och skulle innebära enorma förändringar av hur konsumentmarknaderna fungerar för närvarande. I grund och botten skulle vi behöva koppla om samhället. Det skulle leda oss in i utväxt några decennier tidigare än vi kanske önskar. Transparensutmaningen kring AI kan vara mer formidabel än kontrollvariablerna som alla verkar så oroliga över, inte att de är orelaterade, förstås.

Dessutom kan vi inte vara lika oroliga varje gång ett AI-riktmärke nås. Vi måste spara våra energier för verkligt stora ögonblick av kaskadrisk. De kommer och i rättvisans namn är vi inte förberedda. Mina föreställda framtidsscenarier (se Extinction Scenarios för 2075) inkluderar massiva dataintrång som håller hela länder uteslutna från sina egna processer i månader. Jag oroar mig också för AI:er som får hjälp av kriminella grupper eller statliga aktörer. Mest av allt oroar jag mig för kombinationer av AI, nanoteknik, syntetisk biologi och kvantteknologi – nästan osynlig kvasiorganisk intelligens med okänd förmåga, kanske bara några decennier bort, som händer precis när världen kommer att konsumeras av klimatets kaskadeffekter förändra.

Nuvarande AI-modeller fungerar ännu inte tillräckligt bra för att vara ett hot mot mänskligheten. Innan vi kan överväga att stänga av dem behöver vi bättre AI:er. Mer än så behöver vi klokare utvecklare, mer känsliga medborgare och bättre informerade beslutsfattare. Vi behöver också ett koncept för HUR man reglerar AI. Men detta kan göras utan att sakta ner något. Det kommer att bli en lärorik resa för alla. Moratoriebrevet om GPT 4 (2023) är ett gråtvargögonblick med endast en svag likhet med de kaskadrisker som mänskligheten står inför under kommande decennier. Att sätta AI-risk på nivån för pandemisk risk och kärnkraftsrisk 2023 är för tidigt. Kommer vi dit? Kanske. Men gråtande varg får konsekvenser. Det suger syre ur kommande debatter om riktiga skrämmer.

Källa: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/