Artikler

OpenAI og EU's databeskyttelsesregler, efter Italien kommer flere restriktioner

OpenAI formåede at reagere positivt på de italienske datamyndigheder og ophæve landets effektive forbud på ChatGPT i sidste uge, men hans kamp mod europæiske regulatorer er langt fra slut. 

Estimeret læsetid: 9 minutter

I begyndelsen af ​​2023 løb OpenAIs populære og kontroversielle ChatGPT-chatbot ind i et stort juridisk problem: et effektivt forbud i Italien. Den italienske databeskyttelsesmyndighed (GPDP) har anklaget OpenAI for at overtræde EU's databeskyttelsesregler, og virksomheden har indvilliget i at begrænse adgangen til tjenesten i Italien, da den forsøger at løse problemet. Den 28. april vendte ChatGPT tilbage til landet, hvor OpenAI let adresserede GPDP-bekymringer uden at foretage nogen større ændringer i sin tjeneste – en tilsyneladende sejr.

Svar Italiensk privatlivsgaranti

GPDP bekræftede at "byde velkommen" til ændringerne foretaget af ChatGPT. Imidlertid er virksomhedens juridiske problemer - og virksomheder, der bygger lignende chatbots - sandsynligvis lige ved at komme i gang. Regulatorer i flere lande undersøger, hvordan disse AI-værktøjer indsamler og producerer information, med henvisning til en række bekymringer fra virksomheder, der indsamler ulicenserede træningsdata til chatbots tendens til at sprede desinformation. 

Den Europæiske Union og GDPR

I EU håndhæver de den generelle databeskyttelsesforordning (GDPR), en af ​​de mest robuste juridiske rammer for privatlivets fred i verden, hvis virkninger sandsynligvis også vil kunne mærkes uden for Europa. I mellemtiden arbejder europæiske lovgivere på en lov, der specifikt vil omhandle kunstig intelligens, hvilket sandsynligvis vil indlede en ny æra med regulering af systemer som ChatGPT. 

Popularitet af ChatGPT

ChatGPT er et af de mest populære eksempler på generativ AI, en paraplybetegnelse, der dækker over værktøjer, der producerer tekst, billeder, video og lyd baseret på brugeranmodninger. Tjenesten er efter sigende blevet en af hurtigst voksende forbrugerapplikationer i historien efter at have nået 100 millioner månedlige aktive brugere på kun to måneder efter lanceringen i november 2022 (OpenAI har aldrig bekræftet disse tal). 

Folk bruger det til at oversætte tekst til forskellige sprog, skriver universitets essays og generere kode. Men kritikere, herunder regulatorer, har fremhævet ChatGPTs upålidelige output, forvirrende ophavsretsproblemer og lyssky praksis for databeskyttelse.

Italien var det første land, der flyttede. Den 31. marts fremhævede han fire måder, hvorpå han mente, at OpenAI overtrådte GDPR:

  • tillade ChatGPT at give unøjagtige eller vildledende oplysninger,
  • ikke informere brugerne om deres dataindsamlingspraksis,
  • opfylde enhver af de seks mulige juridiske begrundelser for databehandling personlig e
  • ikke i tilstrækkelig grad begrænser børn under 13 år i at bruge tjenesten. 

Europa og ikke-Europa

Intet andet land har truffet sådanne foranstaltninger. Men siden marts har mindst tre EU-lande – Tyskland , Frankrig e Spanien – har iværksat deres egen undersøgelse af ChatGPT. 

I mellemtiden, på den anden side af Atlanten, Canada evaluerer bekymringer om privatlivets fred under sin lov om beskyttelse af personlige oplysninger og elektroniske dokumenter eller PIPEDA. Det Europæiske Databeskyttelsesråd (EDPB) har endda oprettet et dedikeret taskforce at hjælpe med at koordinere efterforskningen. Og hvis disse bureauer anmoder om ændringer af OpenAI, kan de påvirke, hvordan tjenesten fungerer for brugere over hele verden. 

Regulatorers bekymringer kan groft opdeles i to kategorier:

  • hvor kommer ChatGPT træningsdataene fra f.eks
  • hvordan OpenAI giver information til sine brugere.

ChatGPT bruger OpenAI's GPT-3.5 og GPT-4 store sprogmodeller (LLM'er), som trænes på store mængder menneskeproduceret tekst. OpenAI er forsigtig med præcis hvilken træningstekst den bruger, men siger, at den trækker på "en række offentligt tilgængelige, oprettede og licenserede datakilder, som kan omfatte offentligt tilgængelige personlige oplysninger."

Eksplicit samtykke

Dette udgør potentielt store problemer under GDPR. Loven blev vedtaget i 2018 og dækker alle tjenester, der indsamler eller behandler data fra EU-borgere, uanset hvor den ansvarlige organisation er baseret. GDPR-reglerne kræver, at virksomheder har et eksplicit samtykke, før de indsamler persondata, at de har en juridisk begrundelse for, hvorfor de indsamles, og at de er gennemsigtige omkring, hvordan de bruges og opbevares.

Nyhedsbrev om innovation
Gå ikke glip af de vigtigste nyheder om innovation. Tilmeld dig for at modtage dem via e-mail.

Europæiske tilsynsmyndigheder siger, at OpenAIs træningsdatahemmelighed betyder, at der ikke er nogen måde at bekræfte, om de personlige oplysninger, der blev indtastet, oprindeligt blev givet med brugerens samtykke, og GPDP argumenterede specifikt for, at OpenAI "intet juridisk grundlag" havde til at indsamle dem i første omgang. Indtil videre er OpenAI og andre sluppet af sted med lidt granskning, men denne erklæring tilføjer et stort spørgsmålstegn til fremtidige dataskrabningsbestræbelser.

Ret til at blive glemt

Så er der " ret til at blive glemt ” i GDPR, som giver brugerne mulighed for at anmode virksomheder om at rette deres personlige oplysninger eller fjerne dem fuldstændigt. Åbn AI har tidligere opdateret sin privatlivspolitik for at lette sådanne anmodninger, men ja det er det diskuteret om det er teknisk muligt at styre dem, givet hvor komplekst det kan være at adskille specifikke data når de først er blevet sat ind i disse store sprogmodeller.

OpenAI indsamler også oplysninger direkte fra brugerne. Som enhver internetplatform samler den en standard brugerdatasæt (f.eks. navn, kontaktoplysninger, kortoplysninger osv.). Men mere væsentligt, det logger de interaktioner, brugere har med ChatGPT. Som angivet i en FAQ , disse data kan gennemgås af OpenAI-medarbejdere og bruges til at træne fremtidige versioner af dens model. I betragtning af de intime spørgsmål, folk stiller ChatGPT, ved at bruge botten som terapeut eller læge, betyder det, at virksomheden indsamler alle former for følsomme data.

I det mindste nogle af disse data kan være blevet indsamlet fra børn, da mens OpenAIs politik siger, at den "ikke bevidst indsamler personlige oplysninger fra børn under 13 år", er der ingen streng alderskontrol. Dette spiller ikke godt sammen med EU-reglerne, som forbyder indsamling af data fra personer under 13 år og (i nogle lande) kræver forældres samtykke for børn under 16 år. På outputsiden sagde GPDP, at ChatGPTs mangel på aldersfiltre afslører mindreårige a "absolut utilstrækkelige svar sammenlignet med deres udviklingsgrad og selvbevidsthed". 

Falske oplysninger

Også ChatGPTs tilbøjelighed til give falske oplysninger kan være et problem. GDPR-reglerne foreskriver, at alle personlige data skal være nøjagtige, noget GPDP fremhævede i sin meddelelse. Alt efter hvordan det kommer definat, kunne stave problemer for de fleste AI-tekstgeneratorer, som er tilbøjelige til at ” hallucinationer “: En fin branchebetegnelse for faktisk forkerte eller irrelevante svar på en forespørgsel. Dette har allerede set nogle reelle konsekvenser andre steder, som en australsk regional borgmester har truet med at sagsøge OpenAI for ærekrænkelse efter at ChatGPT fejlagtigt hævdede, at han havde afsonet en fængselsdom for korruption.

ChatGPTs popularitet og nuværende AI-markedsdominans gør det til et særligt attraktivt mål, men der er ingen grund til, at dets konkurrenter og bidragydere, såsom Google med Bard eller Microsoft med dets Azure AI baseret på OpenAI, ikke står over for granskning. Før ChatGPT forbød Italien chatbot-platformen Replika til indsamling af oplysninger om mindreårige og har indtil videre været forbudt. 

Selvom GDPR er et kraftfuldt sæt love, blev det ikke skabt til at løse specifikke AI-problemer. Regler det , dog kan de være i horisonten. 

Lov om kunstig intelligens

I 2021 præsenterede EU sit første udkast tilArtificial Intelligence Act (AIA) , lovgivning, der vil arbejde sammen med GDPR. Loven regulerer AI-værktøjer baseret på deres opfattede risiko, fra "minimal" (ting som spamfiltre) til "høj" (AI-værktøjer til retshåndhævelse eller uddannelse) eller "uacceptabel" og derfor forbudt (som et socialt kreditsystem). Efter eksplosionen af ​​store sprogmodeller som ChatGPT sidste år, ræser lovgivere nu om at tilføje regler for "kernemodeller" og "General Purpose Artificial Intelligence (GPAI)-systemer" - to udtryk for intelligenssystemer kunstig skala inklusive LLM - og potentielt klassificere som højrisikotjenester.

EU-lovgivere har indgået en foreløbig aftale om AI-loven den 27. april. En kommission vil stemme om udkastet den 11. maj, og det endelige forslag ventes i midten af ​​juni. Derfor bliver Det Europæiske Råd, Parlamentet og Kommissionen nødt til det løse eventuelle resterende tvister før loven implementeres. Hvis alt går glat, kan det blive vedtaget i anden halvdel af 2024, lidt efter målet officielle af valget til Europa-Parlamentet i maj 2024.

OpenAI har stadig mål at nå. Der er indtil 30. september til at oprette en strengere aldersgrænse for at holde under 13 år ude og kræve forældres samtykke for ældre mindreårige teenagere. Hvis det mislykkes, kan det blive blokeret igen. Men det gav et eksempel på, hvad Europa anser for acceptabel adfærd for en AI-virksomhed, i det mindste indtil nye love er vedtaget.

Relaterede læsninger

Ercole Palmeri

Nyhedsbrev om innovation
Gå ikke glip af de vigtigste nyheder om innovation. Tilmeld dig for at modtage dem via e-mail.

Seneste artikler

Veeam har den mest omfattende support til ransomware, fra beskyttelse til respons og gendannelse

Coveware by Veeam vil fortsætte med at levere responstjenester til cyberafpresning. Coveware vil tilbyde kriminaltekniske og afhjælpende funktioner...

23 April 2024

Grøn og digital revolution: Hvordan prædiktiv vedligeholdelse transformerer olie- og gasindustrien

Forudsigende vedligeholdelse revolutionerer olie- og gassektoren med en innovativ og proaktiv tilgang til anlægsstyring...

22 April 2024

Britisk antitrust-tilsynsmyndighed rejser BigTech-alarm over GenAI

Det britiske CMA har udsendt en advarsel om Big Techs adfærd på markedet for kunstig intelligens. Der…

18 April 2024

Casa Green: energirevolution for en bæredygtig fremtid i Italien

Dekretet om "grønne huse", der er formuleret af Den Europæiske Union for at øge bygningers energieffektivitet, har afsluttet sin lovgivningsproces med...

18 April 2024