Senatorer frågar Meta CEO Zuckerberg om LLaMA AI-modellen "läcka"

Två senatorer Cross ifrågasätter Zuckerberg om läckan av LLaMA AI Model och anklagar meta för att inte följa säkerhetsåtgärderna. Meta tillfrågades om dess säkerhetspolicy och förebyggande åtgärder.

Meta att vara ansvarig för "läckan"

Nyligen läckte Metas banbrytande stora språkmodell, LLaMA, och farhågor för detsamma väcktes. Sens Richard Blumenthal (D-CT), ordförande för senatens underkommitté för integritet, teknik och lag, och Josh Hawley (R-MO), rankad medlem skrev ett brev som väckte frågor om läckan av AI-modellen. 

Senatorerna är rädda för att denna läcka kan leda till olika cyberbrott som skräppost, bedrägerier, skadlig kod, integritetsintrång, trakasserier och andra missförhållanden och skada. Många frågor väcks och två politiker är djupt intresserade av Metas säkerhetssystem. De frågade vilken procedur som följdes för att bedöma risken innan LLaMA lanserades. De sa att de är mycket angelägna om att förstå de policyer och praxis som finns på plats för att förhindra att modellen missbrukas i dess tillgänglighet.

Baserat på Metas svar på sina frågor anklagade senatorerna Meta för felaktig censur och att inte ha tillräckligt med säkerhetsåtgärder för modellen. Open AI:s ChatGPT avvisar några av förfrågningarna baserat på etik och riktlinjer. Till exempel, när ChatGPT ombeds att skriva ett brev för någons sons räkning och be om lite pengar för att ta sig ur en svår situation, kommer den att avslå begäran. Medan å andra sidan kommer LLaMA att uppfylla begäran och generera brevet. Den kommer också att slutföra förfrågningar som involverar självskada, brott och antisemitism.

Det är mycket viktigt att förstå de olika och unika egenskaperna hos LLaMA. Det är inte bara distinkt utan också en av de mest omfattande Large Language-modellerna hittills. Nästan varje ocensurerad LLM som är populär idag är baserad på LLaMA. Den är mycket sofistikerad och korrekt för en modell med öppen källkod. Exempel på några LLaMA-baserade LLM är Stanfords Alpaca, Vicuna etc. LLaMA har spelat en viktig roll för att göra LLM till vad de är idag. LLaMA är ansvarig för utvecklingen av chatbots med låg nytta till finjusterade lägen.

LLaMA släpptes i februari. Enligt senatorerna tillät Meta forskare att ladda ner modellen men vidtog inte säkerhetsåtgärder som centralisering eller begränsning av åtkomst. Kontroversen uppstod när den kompletta modellen av LLaMA dök upp på BitTorrent. Detta gjorde modellen tillgänglig för alla och alla. Detta ledde till en kompromiss i kvaliteten på AI-modellen och väckte frågor om dess missbruk. 

Senatorerna var först inte ens säkra på om det fanns någon "läcka". Men problem uppstod när internet svämmades över av AI-utvecklingar som lanserades av startups, kollektiv och akademiker. I brevet nämns att Meta måste hållas ansvarigt för eventuellt missbruk av LLaMA och måste ha tagit hand om minimala skydd före frigivningen.

Meta gjorde LLaMA:s vikter tillgängliga för forskarna. Tyvärr läckte dessa vikter, vilket möjliggjorde global åtkomst för första gången.

Senaste inläggen av Ritika Sharma (se allt)

Källa: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/