AI-experter undertecknar dokument som jämför risken för "utrotning från AI" med pandemier, kärnvapenkrig

Dussintals experter på artificiell intelligens (AI), inklusive VD:arna för OpenAI, Google DeepMind och Anthropic, undertecknade nyligen ett öppet uttalande publicerat av Center for AI Safety (CAIS). 

Uttalandet innehåller en enda mening:

"Att mildra risken för utrotning från AI bör vara en global prioritet vid sidan av andra samhällsskada risker som pandemier och kärnvapenkrig."

Bland dokumentets undertecknare finns en veritabel "vem är vem" av AI-armaturer, inklusive "Gudfadern" för AI, Geoffrey Hinton; University of California, Berkeleys Stuart Russell; och Massachusetts Institute of Technologys Lex Fridman. Musiker Grimes är också undertecknare, listad under kategorin "andra anmärkningsvärda figurer".

Relaterat: Musiker Grimes villig att "dela upp 50 % royalties" med AI-genererad musik

Även om uttalandet kan verka ofarligt på ytan, är det underliggande budskapet något kontroversiellt i AI-gemenskapen.

Ett till synes växande antal experter tror att nuvarande teknologier oundvikligen kan eller kommer att leda till uppkomsten eller utvecklingen av ett AI-system som kan utgöra ett existentiellt hot mot den mänskliga arten.

Deras åsikter bemöts dock av en kontingent experter med diametralt motsatta åsikter. Metachefen för AI-forskaren Yann LeCun, till exempel, har vid ett flertal tillfällen noterat att han inte nödvändigtvis tror att AI kommer att bli okontrollerbar.

För honom och andra som inte håller med om "utdöende"-retoriken, som Andrew Ng, medgrundare av Google Brain och tidigare chefsforskare vid Baidu, är AI inte problemet, det är svaret.

Å andra sidan av argumentet tror experter som Hinton och Conjectures vd Connor Leahy att AI på mänsklig nivå är oundvikligt och därför är det dags att agera nu.

Det är dock oklart vilka åtgärder uttalandets undertecknare efterlyser. VD:arna och/eller cheferna för AI för nästan alla större AI-företag, såväl som kända forskare från hela akademin, är bland dem som skrivit under, vilket gör det uppenbart att avsikten inte är att stoppa utvecklingen av dessa potentiellt farliga system.

Tidigare denna månad gjorde OpenAI VD Sam Altman, en av ovannämnda uttalandes undertecknare, sitt första framträdande inför kongressen under en senatsutfrågning för att diskutera AI-reglering. Hans vittnesmål skapade rubriker efter att han ägnat större delen av det åt att uppmana lagstiftare att reglera hans bransch.

Altman's Worldcoin, ett projekt som kombinerar kryptovaluta och proof-of-personhood, har också nyligen gjort mediarundor efter att ha samlat in 115 miljoner dollar i serie C-finansiering, vilket ger den totala finansieringen efter tre omgångar till 240 miljoner dollar.

Källa: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war