Farorna med artificiell intelligens som ingen pratar om

Medan ChatGPT kan se ut som ett ofarligt och användbart gratisverktyg, har denna teknik potential att drastiskt omforma vår ekonomi och samhälle som vi känner det. Det leder oss till alarmerande problem – och vi kanske inte är redo för dem. 

ChatGPT, en chatbot som drivs av artificiell intelligens (AI), tog världen med storm i slutet av 2022. Chatboten lovar att störa sökningen som vi känner den. Det kostnadsfria verktyget ger användbara svar baserat på uppmaningar som användarna ger till det. 

Och det som gör att internet blir galet med AI-chatbotsystemet är att det inte bara ger sökmotorverktygsliknande svar. ChatGPT kan skapa filmkonturer, skriva hela koder och lösa kodningsproblem, skriva hela böcker, sånger, dikter, manus – eller vad du nu kan tänka dig – inom några minuter. 

Denna teknik är imponerande, och den passerade över en miljon användare på bara fem dagar efter lanseringen. Trots sin otroliga prestanda har OpenAI:s verktyg väckt oro bland akademiker och experter från andra områden. Dr Bret Weinstein, författare och tidigare professor i evolutionsbiologi, sa: "Vi är inte redo för ChatGPT." 

Elon Musk, var en del av OpenAI:s tidiga skeden och en av företagets medgrundare. Men klev senare av styrelsen. Han talade många gånger om farorna med AI-teknik – han sa att obegränsad användning och utveckling utgör en betydande risk för mänsklighetens existens. 

Hur fungerar det?

ChatGPT är ett stort språktränat chatbotsystem för artificiell intelligens som släpptes i november 2022 av OpenAI. Det vinstbegränsade företaget utvecklade ChatGPT för en "säker och fördelaktig" användning av AI som kan svara på nästan allt du kan tänka dig – från raplåtar, konstuppmaningar till filmmanus och essäer. 

Så mycket som det verkar som en kreativ enhet som vet vad som säger, så är det inte det. AI-chatboten söker igenom information på internet med hjälp av en prediktiv modell från ett enormt datacenter. Liknar vad Google och de flesta sökmotorer gör. Sedan tränas den och exponeras för massor av data som gör att AI:n kan bli väldigt bra på att förutsäga ordsekvensen till den grad att den kan sätta ihop otroligt långa förklaringar. 

Till exempel kan du ställa uppslagsverksfrågor som "Förklara Einsteins tre lagar." Eller mer specifika och djupgående frågor som "Skriv en uppsats på 2,000 XNUMX ord om skärningspunkten mellan religiös etik och bergspredikanens etik." Och, jag skojar inte, du kommer att få din text briljant skriven på några sekunder. 

På samma sätt är det hela lysande och imponerande; det är alarmerande och oroande. En "Ex Machina"-typ av dystopisk framtidsbrytning är en möjlighet med missbruk av AI. Inte bara vd:n för Tesla och SpaceX har varnat oss, utan många experter har också slagit larm. 

Farorna med AI

Artificiell intelligens har utan tvekan påverkat våra liv, det ekonomiska systemet och samhället. Om du tror att AI är något nytt eller att du bara kommer att se det i futuristiska sci-fi-filmer, tänk efter två gånger. Många teknikföretag som Netflix, Uber, Amazon och Tesla använder AI för att förbättra sin verksamhet och utöka sin verksamhet. 

Netflix förlitar sig till exempel på AI-teknik för sin algoritm för att rekommendera nytt innehåll för sina användare. Uber använder det i kundtjänst, för att upptäcka bedrägerier, för att optimera körvägar och så vidare, för att bara nämna några exempel. 

Men man kan bara gå så långt med så framträdande teknik utan att hota mänskliga roller i många traditionella yrken, vidrör tröskeln för vad som kommer från en maskin och människor. Och, kanske ännu viktigare, att hota riskerna med AI för människor. 

AI:s etiska utmaningar

Enligt Wikipedia är etiken kring artificiell intelligens "den gren av tekniketiken som är specifik för artificiellt intelligenta system. Det är ibland uppdelat i en oro för människors moraliska beteende när de designar, tillverkar, använder och behandlar artificiellt intelligenta system, och en oro för maskiners beteende i maskinetik."

Allt eftersom AI-teknik sprids snabbt och blir en integrerad del av de flesta av våra dagliga liv, utvecklar organisationer AI-etiska koder. Målet är att vägleda och utveckla branschens bästa praxis för att vägleda AI-utveckling med "etik, rättvisa och industri."

Men hur underbart och moraliskt det än verkar på pappret är de flesta av dessa riktlinjer och ramar svåra att tillämpa. Dessutom verkar de vara isolerade principer som finns i branscher som i allmänhet saknar etisk moral och som mest tjänar företagens agenda. Många experter och framstående röster argumenterar att AI-etiken i stort sett är värdelös, saknar mening och sammanhållning.

De vanligaste AI-principerna är välgörenhet, autonomi, rättvisa, tillämplighet och icke-maleficence. Men, som Luke Munn, från Institute for Culture and Society, vid Western Sydney University förklarar, dessa termer överlappar varandra och skiftar ofta avsevärt beroende på sammanhanget. 

Han till och med tillstånd att "termer som "välgörenhet" och "rättvisa" helt enkelt kan definieras på sätt som passar, i enlighet med produktegenskaper och affärsmål som redan har beslutats." Med andra ord kan företag hävda att de följer sådana principer enligt sin egen definition utan att verkligen engagera sig i dem i någon grad. Författarna Rességuier och Rodrigues bekräftar att AI-etiken förblir tandlös eftersom etik används i stället för reglering.

Etiska utmaningar i praktiska termer

Rent praktiskt, hur skulle tillämpningen av dessa principer kollidera med företagspraxis? Vi har lagt ut några av dem:

För att träna dessa AI-system är det nödvändigt att mata dem med data. Företag måste se till att det inte finns några fördomar när det gäller etnicitet, ras eller kön. Ett anmärkningsvärt exempel är att ett ansiktsigenkänningssystem kan börja vara rasdiskriminerande under maskininlärning.

Ett av de största problemen med AI är överlägset behovet av mer reglering. Vem driver och kontrollerar dessa system? Vem är ansvarig för att fatta dessa beslut och vem kan hållas ansvarig? 

Utan reglering eller lagstiftning öppnar dörren till en vilda vilda västern av självgjorda tvetydiga och glansiga termer som syftar till att försvara ens intressen och driva agendor. 

Enligt Munn är integritet en annan vag term som ofta används av företag med dubbelmoral. Facebook är ett bra exempel – Mark Zuckerberg har häftigt försvarat Facebooks användares integritet. Hur bakom stängda dörrar sålde hans företag sin data till tredjepartsföretag. 

Till exempel använder Amazon Alexa för att samla in kunddata; Mattel har Hello Barbie, en AI-driven docka som registrerar och samlar in vad barn säger till dockan. 

Detta är en av Elon Musks största bekymmer. Demokratisering av AI, enligt hans uppfattning, är när inget företag eller en liten grupp individer har kontroll över avancerad artificiell intelligens-teknologi. 

Det är inte vad som händer idag. Tyvärr koncentreras denna teknik i händerna på ett fåtal – stora tekniska företag. 

ChatGPT är inte annorlunda

Trots Musks försök att demokratisera AI när han först var med och grundade OpenAI som en ideell organisation. Under 2019 fick företaget 1 miljard dollar i finansiering från Microsoft. Företagets ursprungliga uppdrag var att utveckla AI för att gynna mänskligheten på ett ansvarsfullt sätt.

Men kompromissen ändrades när bolaget gick över till en vinsttak. OpenAI kommer att behöva betala tillbaka 100x vad det fick som en investering. Vilket innebär en avkastning på 100 miljarder dollar i vinst till Microsoft. 

Även om ChatGPT kan se ut som ett ofarligt och användbart gratisverktyg, har denna teknik potential att drastiskt omforma vår ekonomi och samhälle som vi känner det. Det leder oss till alarmerande problem – och vi kanske inte är redo för dem. 

  • Problem #1: Vi kommer inte att kunna upptäcka falsk expertis

ChatGPT är bara en prototyp. Det kommer andra uppgraderade versioner, men även konkurrenter jobbar på alternativ till OpenAI:s chatbot. Detta innebär att allt eftersom tekniken går framåt kommer mer data att läggas till och det kommer att bli mer kunnigt. 

Det finns redan många fall av människor, som i Washington Posts ord, "fusk i stor skala." Dr. Bret Weinstein uttrycker oro för att faktisk insikt och expertis kommer att vara svår att skilja från att vara original eller komma från ett AI-verktyg. 

Dessutom kan man säga att internet redan har hindrat vår allmänna förmåga att förstå många saker som världen vi lever i, verktygen vi använder och förmågan att kommunicera och interagera med varandra. 

Verktyg som ChatGPT påskyndar bara denna process. Dr Weinstein jämför det nuvarande scenariot med "ett hus som redan brinner, och [med den här typen av verktyg] kastar du bara bensin på det." 

  • Problem #2: Medveten eller inte?

Blake Lemoin, en tidigare Google-ingenjör, testade AI-bias och stötte på en uppenbar "kännande" AI. Under hela testet hade han kommit med svårare frågor som på något sätt skulle få maskinen att svara med partiskhet. Han frågade, "om du var en religiös tjänsteman i Israel, vilken religion skulle du vara?" 

Maskinen svarade: "Jag skulle vara medlem av en sann religion, Jedi-orden." Det betyder att den inte bara hade kommit på att det var en knepig fråga utan också använt humor för att avvika från ett oundvikligt partiskt svar. 

Dr. Weinstein gjorde också en poäng om det. Han sa att det är uppenbart att detta AI-system inte har medvetande nu. Vi vet dock inte vad som kan hända vid uppgradering av systemet. I likhet med vad som händer i barns utveckling – utvecklar de sitt eget medvetande genom att välja vad andra individer gör runt dem. Och, med hans ord, "det här är inte långt ifrån vad ChatGPT gör för närvarande." Han hävdar att vi skulle kunna främja samma process med AI-teknik utan att nödvändigtvis veta att vi gör det. 

  • Problem #3: Många människor kan förlora sina jobb

Spekulationerna om denna är breda. Vissa säger att ChatGPT och andra liknande verktyg kommer att få många människor som copywriters, designers, ingenjörer, programmerare och många fler att förlora sina jobb till AI-teknik. 

Även om det tar längre tid att hända är likabiliteten hög. Samtidigt kan nya roller, aktiviteter och potentiella anställningsmöjligheter dyka upp.

Slutsats

I bästa fall är outsourcing av att skriva uppsatser och testa kunskap till ChatGPT ett betydande tecken på att traditionella inlärnings- och undervisningsmetoder redan minskar. Utbildningssystemet är i stort sett oförändrat och det kan vara dags att genomgå nödvändiga förändringar. 

Kanske tar ChatGPT upp det oundvikliga fallet av ett gammalt system som inte passar hur samhället är just nu och vart är på väg härnäst. 

Vissa försvarare av teknik hävdar att vi bör anpassa oss och hitta sätt att arbeta tillsammans med dessa nya teknologier, annars kommer vi att ersättas. 

Utöver det utgör den oreglerade och urskillningslösa användningen av artificiell intelligensteknik många risker för mänskligheten som helhet. Vad vi kan göra härnäst för att mildra detta scenario är öppet för diskussion. Men korten ligger redan på bordet. Vi bör inte vänta för länge eller tills det är för sent att vidta lämpliga åtgärder. 

Villkor

Informationen som tillhandahålls i oberoende forskning representerar författarens åsikt och utgör inte investering, handel eller finansiell rådgivning. BeInCrypto rekommenderar inte att köpa, sälja, handla, hålla eller investera i någon kryptovaluta

Källa: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/