FBI varnar för AI Deepfake utpressningsbedrägerier

Förmågan hos generativ AI att skapa verklighetstrogna bilder är imponerande, men US Federal Bureau of Investigation säger att brottslingar använder deepfakes för att rikta offren för utpressning.

"FBI fortsätter att ta emot rapporter från offer, inklusive minderåriga barn och icke-samtyckande vuxna, vars foton eller videor har ändrats till explicit innehåll", sa byrån i en PSA-varning på måndagen.

FBI säger att brottsbekämpande myndigheter mottog över 7,000 XNUMX rapporter förra året om utpressning online mot minderåriga, med en ökning av offer för så kallade "sextortion-bedrägerier" med deepfakes sedan april.

En deepfake är en allt vanligare typ av video- eller ljudinnehåll skapat med artificiell intelligens som skildrar falska händelser som är allt svårare att urskilja som falska, tack vare generativa AI-plattformar som Midjourney 5.1 och OpenAI:s DALL-E 2.

I maj gick en djupförfalskning av Tesla och Twitters vd Elon Musk för att lura kryptoinvesterare viral. Videon som delas på sociala medier innehöll bilder av Musk från tidigare intervjuer, redigerade för att passa bluffen.

Deepfakes är inte alla skadliga, en deepfake av påve Franciskus i en vit Balenciaga-jacka gick viralt tidigare i år, och på senare tid har AI-genererade deepfakes också använts för att väcka mordoffer till liv.

I sina rekommendationer varnade FBI för att betala någon lösensumma eftersom det inte garanterar att brottslingarna inte kommer att publicera deepfake ändå.

FBI råder också till försiktighet när du delar personlig information och innehåll online, inklusive att använda sekretessfunktioner som att göra konton privat, övervaka barns onlineaktivitet och titta efter ovanligt beteende från personer du har interagerat med tidigare. Byrån rekommenderar också att göra frekventa sökningar efter personlig information och information om familjemedlemmar online.

Andra organ som slår larm inkluderar US Federal Trade Commission, som varnade för att brottslingar har använt deepfakes för att lura intet ont anande offer att skicka pengar efter att ha skapat en ljuddeepfake av en vän eller familjemedlem som säger att de har blivit kidnappade.

"Artificiell intelligens är inte längre en långsökt idé ur en sci-fi-film. Vi lever med det, här och nu. En bedragare kan använda AI för att klona rösten till din älskade”, sa FTC i en konsumentvarning i mars och tillade att alla kriminella behov är ett kort ljudklipp av en familjemedlems röst för att få inspelningen att låta verklig.

FBI har ännu inte svarat på Dekryptera s begäran om kommentar.

Håll dig uppdaterad om kryptonyheter, få dagliga uppdateringar i din inkorg.

Källa: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams