Articole

Regulile OpenAI și UE privind protecția datelor, după Italia vor urma mai multe restricții

OpenAI a reușit să răspundă pozitiv autorităților italiene de date și ridică interdicția efectivă a țării pe ChatGPT săptămâna trecută, dar lupta sa împotriva autorităților europene de reglementare este departe de a fi încheiată. 

Timp de citire estimat: 9 minute

La începutul anului 2023, popularul și controversatul chatbot ChatGPT al OpenAI s-a confruntat cu o problemă juridică majoră: o interdicție efectivă în Italia. Autoritatea italiană pentru protecția datelor (GPDP) a acuzat OpenAI de încălcarea regulilor UE de protecție a datelor, iar compania a fost de acord să restricționeze accesul la serviciu în Italia, în timp ce încearcă să rezolve problema. Pe 28 aprilie, ChatGPT s-a întors în țară, OpenAI abordând cu ușurință preocupările GPDP fără a face modificări majore în serviciul său – o victorie aparentă.

Răspundeți Garantul de confidențialitate italian

GPDP a afirmat să „bună venit” modificărilor făcute de ChatGPT. Cu toate acestea, problemele juridice ale companiei - și cele ale companiilor care construiesc chatbot-uri similare - sunt probabil la început. Autoritățile de reglementare din mai multe țări investighează modul în care aceste instrumente AI colectează și produc informații, invocând o serie de preocupări din partea companiilor care colectează date de antrenament fără licență la tendința chatbot-urilor de a răspândi dezinformarea. 

Uniunea Europeană și GDPR

În UE, aceștia pun în aplicare Regulamentul general privind protecția datelor (GDPR), unul dintre cele mai solide cadre juridice privind confidențialitatea din lume, ale cărui efecte sunt probabil resimțite și în afara Europei. Între timp, parlamentarii europeni lucrează la o lege care se va adresa în mod specific inteligenței artificiale, ceea ce va duce probabil la o nouă eră de reglementare pentru sisteme precum ChatGPT. 

Popularitatea ChatGPT

ChatGPT este unul dintre cele mai populare exemple de IA generativă, un termen umbrelă care acoperă instrumentele care produc text, imagini, video și audio pe baza solicitărilor utilizatorilor. Se pare că serviciul a devenit unul dintre aplicații de consum cu cea mai rapidă creștere în istorie după ce a atins 100 de milioane de utilizatori activi lunar în doar două luni de la lansare în noiembrie 2022 (OpenAI nu a confirmat niciodată aceste cifre). 

Oamenii îl folosesc pentru a traduce text în diferite limbi, pentru a scrie eseuri universitare și generează cod. Dar criticii, inclusiv autoritățile de reglementare, au evidențiat rezultatul nesigur al ChatGPT, problemele de drepturi de autor confuze și practicile umbrite de protecție a datelor.

Italia a fost prima țară care s-a mutat. Pe 31 martie, el a evidențiat patru moduri în care credea că OpenAI încalcă GDPR:

  • permite ChatGPT să furnizeze informații inexacte sau înșelătoare,
  • să nu informeze utilizatorii cu privire la practicile sale de colectare a datelor,
  • să îndeplinească oricare dintre cele șase justificări legale posibile pentru prelucrarea datelor Personali e
  • nu restricționează în mod adecvat copiii sub 13 ani de la utilizarea Serviciului. 

Europa și non-Europa

Nicio altă țară nu a luat astfel de măsuri. Dar din martie, cel puțin trei națiuni UE – Germania , Franța e Spania – și-au lansat propria investigație asupra ChatGPT. 

Între timp, de cealaltă parte a Atlanticului, Canada evaluează problemele legate de confidențialitate în temeiul Legii sale privind protecția informațiilor personale și documentele electronice sau PIPEDA. Comitetul European pentru Protecția Datelor (EDPB) a înființat chiar unul grup de lucru dedicat pentru a ajuta la coordonarea anchetei. Și dacă aceste agenții solicită modificări la OpenAI, acestea ar putea afecta modul în care funcționează serviciul pentru utilizatorii din întreaga lume. 

Preocupările autorităților de reglementare pot fi împărțite în linii mari în două categorii:

  • de unde provin datele de antrenament ChatGPT e
  • modul în care OpenAI oferă informații utilizatorilor săi.

ChatGPT folosește modelele de limbaj mari (LLM) GPT-3.5 și GPT-4 OpenAI, care sunt instruite pe cantități mari de text produs de oameni. OpenAI este precaut cu privire la textul de instruire pe care îl folosește, dar spune că se bazează pe „o varietate de surse de date disponibile public, create și licențiate, care pot include informații personale disponibile public”.

Consimțământ explicit

Acest lucru poate pune probleme uriașe în conformitate cu GDPR. Legea a fost promulgată în 2018 și acoperă toate serviciile care colectează sau prelucrează date ale cetățenilor UE, indiferent de locul unde își are sediul organizația responsabilă. Regulile GDPR cer companiilor să aibă consimțământul explicit înainte de a colecta date cu caracter personal, să aibă o justificare legală pentru motivul pentru care sunt colectate și să fie transparente cu privire la modul în care sunt utilizate și stocate.

Buletin informativ de inovare
Nu rata cele mai importante știri despre inovație. Înscrieți-vă pentru a le primi pe e-mail.

Autoritățile de reglementare europene spun că secretul datelor de formare OpenAI înseamnă că nu există nicio modalitate de a confirma dacă informațiile personale introduse au fost furnizate inițial cu consimțământul utilizatorului, iar GPDP a susținut în mod specific că OpenAI nu are „nicio bază legală” pentru a le colecta în primul rând. Până acum, OpenAI și alții au scăpat cu puțină analiză, dar această declarație adaugă un mare semn de întrebare eforturilor viitoare de colectare a datelor.

Dreptul de a fi uitat

Apoi mai este " dreptul de a fi uitat ” din GDPR, care permite utilizatorilor să solicite companiilor să-și corecteze informațiile personale sau să le elimine complet. Deschide AI și-a actualizat anterior politica de confidențialitate pentru a facilita astfel de cereri, dar da este discuto dacă este posibil din punct de vedere tehnic să le gestionezi, având în vedere cât de complex poate fi separarea date specifice odată ce au fost introduse în aceste modele mari de limbaj.

OpenAI colectează și informații direct de la utilizatori. Ca orice platformă de internet, colectează un set standard de date utilizator (de exemplu, numele, informațiile de contact, detaliile cardului etc.). Dar mai semnificativ, înregistrează interacțiunile pe care utilizatorii le au cu ChatGPT. La fel de menționat într-o Întrebări frecvente , aceste date pot fi revizuite de către angajații OpenAI și sunt folosite pentru a instrui versiunile viitoare ale modelului său. Având în vedere întrebările intime pe care le pun oamenii ChatGPT, folosind botul ca terapeut sau medic, aceasta înseamnă că compania colectează tot felul de date sensibile.

Cel puțin unele dintre aceste date ar fi putut fi colectate de la copii, deoarece, în timp ce politica OpenAI afirmă că „nu colectează cu bună știință informații personale de la copiii sub 13 ani”, nu există un control strict de vârstă. Acest lucru nu se potrivește bine cu normele UE, care interzic colectarea de date de la persoanele sub 13 ani și (în unele țări) necesită acordul părinților pentru copiii sub 16 ani. În ceea ce privește rezultatele, GPDP a spus că lipsa filtrelor de vârstă a ChatGPT îi expune pe minori a „răspunsuri absolut inadecvate în comparație cu gradul lor de dezvoltare și conștientizare de sine”. 

Informații false

De asemenea, înclinația ChatGPT către furniza informatii false poate fi o problemă. Reglementările GDPR stipulează că toate datele personale trebuie să fie exacte, lucru subliniat de GPDP în anunțul său. Depinde cum vine definoapte, ar putea provoca probleme pentru majoritatea generatoarelor de text AI, care sunt predispuse la ” allucinazioni „: Un termen frumos din industrie pentru răspunsuri incorecte sau irelevante la o interogare. Acest lucru a avut deja unele repercusiuni în lumea reală în altă parte, așa cum a făcut un primar regional australian a amenințat că va da în judecată OpenAI pentru defăimare după ce ChatGPT a susținut în mod fals că a ispășit o pedeapsă cu închisoarea pentru corupție.

Popularitatea ChatGPT și dominația actuală pe piața AI îl fac o țintă deosebit de atractivă, dar nu există niciun motiv pentru care concurenții și colaboratorii săi, cum ar fi Google cu Bard sau Microsoft cu Azure AI bazat pe OpenAI, să nu fie supuși controlului. Înainte de ChatGPT, Italia a interzis platforma chatbot Replika pentru colectarea de informații despre minori și a rămas până acum interzisă. 

Deși GDPR este un set puternic de legi, nu a fost creat pentru a aborda probleme specifice de AI. Regulează că , cu toate acestea, ele pot fi la orizont. 

Legea inteligenței artificiale

În 2021, UE și-a prezentat primul proiect alActul Inteligenței Artificiale (AIA) , legislație care va funcționa împreună cu GDPR. Actul reglementează instrumentele AI în funcție de riscul lor perceput, de la „minimal” (lucruri precum filtrele de spam) la „ridicat” (instrumente AI pentru aplicarea legii sau educație) sau „inacceptabil” și, prin urmare, interzis (cum ar fi un sistem de credit social). După explozia de modele lingvistice mari, cum ar fi ChatGPT, anul trecut, parlamentarii se întrec acum pentru a adăuga reguli pentru „modele de bază” și „sisteme de inteligență artificială cu scop general (GPAI)” – doi termeni pentru sistemele de inteligență la scară artificială, inclusiv LLM – și, potențial clasifica ca servicii cu risc ridicat.

Legislatorii UE au ajuns la un acord provizoriu cu privire la Actul AI pe 27 aprilie. O comisie va vota proiectul pe 11 mai, iar propunerea finală este așteptată la jumătatea lunii iunie. Prin urmare, Consiliul European, Parlamentul și Comisia vor trebui rezolva orice dispute rămase înainte de aplicarea legii. Dacă totul merge bine, ar putea fi adoptat până în a doua jumătate a anului 2024, cu puțin în urmă țintă oficial alegerilor europene din mai 2024.

OpenAI are încă obiective de îndeplinit. Există până pe 30 septembrie pentru a crea o limită de vârstă mai strictă pentru a-i împiedica pe cei sub 13 ani și pentru a solicita consimțământul părinților pentru adolescenții minori mai în vârstă. Dacă eșuează, se poate bloca din nou. Dar a oferit un exemplu de ceea ce Europa consideră un comportament acceptabil pentru o companie de inteligență artificială, cel puțin până când vor fi adoptate noi legi.

Lecturi înrudite

Ercole Palmeri

Buletin informativ de inovare
Nu rata cele mai importante știri despre inovație. Înscrieți-vă pentru a le primi pe e-mail.

Articole recente

Editorii și OpenAI semnează acorduri pentru a reglementa fluxul de informații procesate de Inteligența Artificială

Luni trecută, Financial Times a anunțat un acord cu OpenAI. FT își licențiază jurnalismul de clasă mondială...

Aprilie 30 2024

Plăți online: Iată cum serviciile de streaming vă fac să plătiți pentru totdeauna

Milioane de oameni plătesc pentru serviciile de streaming, plătind taxe lunare de abonament. Este o părere comună că tu...

Aprilie 29 2024

Veeam oferă cel mai complet suport pentru ransomware, de la protecție la răspuns și recuperare

Coveware de la Veeam va continua să ofere servicii de răspuns la incidente de extorcare cibernetică. Coveware va oferi capacități criminalistice și de remediere...

Aprilie 23 2024

Revoluția verde și digitală: cum întreținerea predictivă transformă industria petrolului și gazelor

Întreținerea predictivă revoluționează sectorul petrolului și gazelor, cu o abordare inovatoare și proactivă a managementului uzinelor...

Aprilie 22 2024