Italiens Garante hävdar att OpenAI:s ChatGPT bryter mot dataskyddsreglerna

Italiens dataskyddsmyndighet, Garante, har eskalerat sin granskning av OpenAI:s ChatGPT och hävdar att chatbotapplikationen för artificiell intelligens bryter mot dataskyddsreglerna. Denna utveckling kommer efter att Garante tidigare hade förbjudit ChatGPT på grund av påstådda brott mot Europeiska unionens (EU) integritetsbestämmelser men sedan tillät dess återaktivering efter OpenAI:s försök att ta itu med oro. Garante har väckt nya farhågor, vilket fick OpenAI att förbereda sitt försvar.

Garante har varit proaktiv i att bedöma AI-plattformens överensstämmelse med EU:s datasekretessregim. Förra året förbjöd myndigheten ChatGPT på grund av påstådda brott mot EU:s integritetsregler. Tjänsten återinfördes dock efter att OpenAI vidtagit åtgärder för att ta itu med användares samtyckesproblem relaterade till persondataanvändning i algoritmträning. Trots återaktiveringen fortsatte Garante i sina undersökningar och har nu meddelat att de har identifierat element som indikerar potentiella kränkningar av dataintegritet.

Som svar på Garantes påståenden har OpenAI hävdat att dess praxis är anpassad till EU:s integritetslagar. Organisationen hävdade att den aktivt arbetar för att minimera användningen av personuppgifter vid utbildning av sina system, som ChatGPT. OpenAI uttryckte också sitt åtagande att samarbeta konstruktivt med Garante under den pågående utredningen.

Nästa steg och juridiska konsekvenser

Garante har gett Microsoft-stödda OpenAI en 30-dagarsperiod för att presentera sina försvarsargument. Denna period kommer att vara avgörande för OpenAI för att klargöra sina dataskyddspraxis och visa efterlevnad av EU-förordningar. Garantes utredning kommer också att överväga resultaten och input från en europeisk arbetsgrupp som består av nationella integritetsvakthundar.

Bakgrunden till denna utredning är EU:s allmänna dataskyddsförordning (GDPR), som infördes 2018. Enligt GDPR kan alla företag som upptäcks ha brutit mot dataskyddsreglerna få böter på upp till 4 % av sin globala omsättning. Med Garantes agerande är det uppenbart att dataskyddsmyndigheter inom EU tar överträdelser på allvar och är villiga att verkställa påföljder när det behövs.

Bredare regulatoriska trender

Fallet med ChatGPT är inte isolerat, eftersom det understryker de bredare regulatoriska trenderna kring AI-system i EU. I december tog EU:s lagstiftare och regeringar ett betydande steg framåt genom att komma överens om provisoriska villkor för att reglera AI-system som ChatGPT. Detta drag för EU närmare att upprätta heltäckande regler för att styra användningen av AI-teknik, med särskilt fokus på att skydda datasekretess och säkerställa etiska AI-praxis.

Den pågående utredningen av Italiens Garante av OpenAI:s ChatGPT belyser vikten av att följa dataskyddsbestämmelserna i EU. OpenAI:s vilja att samarbeta och ta itu med oro angående användningen av personuppgifter kommer att spela en avgörande roll i utgången av detta ärende. Dessutom indikerar de bredare lagstiftningstrenderna i EU en växande tonvikt på att upprätta omfattande riktlinjer för AI-system, som tar itu med dataskydd och etiska överväganden. När utredningen utvecklas återstår det att se hur OpenAI kommer att navigera i dessa utmaningar och om det kan tillfredsställa Garantes oro angående ChatGPT:s efterlevnad av EU:s regler för datasekretess.

Källa: https://www.cryptopolitan.com/chatgpt-violate-data-protection/