Artikoloj

Reguloj pri protekto de datumoj de OpenAI kaj EU, post Italio pli da limigoj venos

OpenAI sukcesis respondi pozitive al la italaj datumoj aŭtoritatoj kaj nuligi la efikan malpermeson de la lando en ChatGPT la pasintsemajne, sed lia batalo kontraŭ eŭropaj reguligistoj estas malproksima de finita. 

Laŭtaksa legotempo: 9 minutoj

Komence de 2023, la populara kaj polemika ChatGPT-babilejo de OpenAI renkontis gravan laŭleĝan problemon: efika malpermeso en Italio. La Itala Datumprotekta Aŭtoritato (GPDP) akuzis OpenAI je malobservo de EU-datumprotektaj reguloj, kaj la kompanio konsentis limigi aliron al la servo en Italio dum ĝi provas solvi la problemon. La 28-an de April, ChatGPT revenis al la lando, kie OpenAI malpeze traktas zorgojn pri GPDP sen fari iujn ajn gravajn ŝanĝojn al ĝia servo - ŝajna venko.

Respondu Italan Privatecan Garantion

La GPDP asertis por "bonvenigi" la ŝanĝojn faritajn de ChatGPT. Tamen, la juraj problemoj de la kompanio - kaj tiuj de kompanioj konstruantaj similajn babilrotojn - verŝajne ĵus komenciĝas. Reguligistoj en pluraj landoj esploras kiel ĉi tiuj AI-iloj kolektas kaj produktas informojn, citante gamon da zorgoj de kompanioj kolektantaj senlicencajn trejnajn datumojn al la tendenco de babilrotoj disvastigi misinformadon. 

Eŭropa Unio kaj GDPR

En EU ili plenumas la Ĝeneralan Regulon pri Protekto de Datumoj (GDPR), unu el la plej fortikaj juraj kadroj pri privateco en la mondo, kies efikoj verŝajne sentos ankaŭ ekster Eŭropo. Dume, eŭropaj leĝdonantoj laboras pri leĝo, kiu specife traktos artefaritan inteligentecon, verŝajne enkondukante novan epokon de reguligo por sistemoj kiel ChatGPT. 

Populareco de ChatGPT

ChatGPT estas unu el la plej popularaj ekzemploj de genera AI, tegmenta termino, kiu kovras ilojn, kiuj produktas tekston, bildojn, filmetojn kaj aŭdiojn surbaze de petoj de uzantoj. La servo laŭdire fariĝis unu el plej rapide kreskantaj konsumantaj aplikoj en historio post atingi 100 milionojn da monataj aktivaj uzantoj en nur du monatoj post lanĉo en novembro 2022 (OpenAI neniam konfirmis ĉi tiujn ciferojn). 

Homoj uzas ĝin por traduki tekston al malsamaj lingvoj, skribi universitataj eseoj kaj generi kodon. Sed kritikistoj, inkluzive de regulistoj, emfazis la nefidindajn produktaĵojn de ChatGPT, konfuzajn kopirajtajn problemojn kaj malklarajn datumprotektajn praktikojn.

Italio estis la unua lando moviĝanta. La 31-an de marto, li elstarigis kvar manierojn laŭ kiuj OpenAI malobservis la GDPR:

  • permesi al ChatGPT provizi malprecizajn aŭ misgvidajn informojn,
  • ne informi uzantojn pri ĝiaj datumkolektadpraktikoj,
  • renkonti iun el la ses eblaj leĝaj pravigoj por datumtraktado persona e
  • ne adekvate limigi infanojn sub 13 de uzado de la Servo. 

Eŭropo kaj ne-Eŭropo

Neniu alia lando faris tian agon. Sed ekde marto, almenaŭ tri EU-nacioj - Germania , Francio e Hispanio – lanĉis sian propran enketon pri ChatGPT. 

Dume, aliflanke de Atlantiko, Kanado taksas privatecajn zorgojn laŭ sia Leĝo pri Protekto pri Persona Informo kaj Elektronikaj Dokumentoj, aŭ PIPEDA. La Eŭropa Datumprotekta Estraro (EDPB) eĉ starigis unu dediĉita specialtrupo helpi kunordigi la esploron. Kaj se ĉi tiuj agentejoj petas ŝanĝojn al OpenAI, ili povus influi kiel la servo funkcias por uzantoj tra la mondo. 

La zorgoj de reguligistoj povas esti larĝe dividitaj en du kategoriojn:

  • de kie venas la datumoj de trejnado de ChatGPT ekz
  • kiel OpenAI provizas informojn al siaj uzantoj.

ChatGPT uzas la GPT-3.5 kaj GPT-4 grandajn lingvomodelojn (LLM) de OpenAI, kiuj estas trejnitaj sur grandaj kvantoj de homproduktita teksto. OpenAI estas singarda pri precize kiun trejnan tekston ĝi uzas, sed diras, ke ĝi uzas "varion da licencitaj, kreitaj kaj publike disponeblaj datumfontoj, kiuj povas inkluzivi publike haveblajn personajn informojn."

Eksplicita konsento

Ĉi tio eble prezentas enormajn problemojn sub la GDPR. La leĝo estis promulgita en 2018 kaj kovras ĉiujn servojn kiuj kolektas aŭ prilaboras datumojn de EU-civitanoj, sendepende de kie la respondeca organizo estas bazita. GDPR-reguloj postulas, ke kompanioj havu eksplicitan konsenton antaŭ ol kolekti personajn datumojn, havi laŭleĝan pravigon pri kial ĝi estas kolektita, kaj esti travideblaj pri kiel ĝi estas uzata kaj konservita.

Informilo pri novigo
Ne maltrafu la plej gravajn novaĵojn pri novigado. Registriĝi por ricevi ilin retpoŝte.

Eŭropaj reguligistoj diras, ke la trejna datumsekreteco de OpenAI signifas, ke ne ekzistas maniero konfirmi ĉu la personaj informoj enmetitaj estis komence provizitaj kun la konsento de la uzanto, kaj la GPDP specife argumentis, ke OpenAI havis "neniun juran bazon" por kolekti ilin en la unua loko. Ĝis nun OpenAI kaj aliaj eliris malmultan ekzamenadon, sed ĉi tiu deklaro aldonas grandan demandosignon al estontaj klopodoj pri skrapado de datumoj.

Rajto esti forgesita

Tiam estas la " rajton esti forgesita ” de la GDPR, kiu permesas al uzantoj peti kompaniojn korekti siajn personajn informojn aŭ forigi ĝin tute. Malfermu AI antaŭe ĝisdatigis sian privatecan politikon por faciligi tiajn petojn, sed jes estas diskuti ĉu estas teknike eble administri ilin, konsiderante kiom kompleksa povas esti apartigi specifaj datumoj post kiam ili estas metitaj en ĉi tiujn grandajn lingvajn modelojn.

OpenAI ankaŭ kolektas informojn rekte de uzantoj. Kiel ajna interreta platformo, ĝi kolektas a norma uzanta datumaro (ekz. nomo, kontaktinformoj, kartdetaloj, ktp.). Sed pli signife, ĝi registras la interagojn de uzantoj kun ChatGPT. Kiel deklarita en Oftaj Demandoj , ĉi tiuj datumoj povas esti reviziitaj de OpenAI-dungitoj kaj estas uzataj por trejni estontajn versiojn de ĝia modelo. Konsiderante la intimajn demandojn, kiujn homoj demandas al ChatGPT, uzante la roboton kiel terapiiston aŭ kuraciston, tio signifas, ke la kompanio kolektas ĉiajn sentemajn datumojn.

Almenaŭ kelkaj el tiuj datumoj eble estis kolektitaj de infanoj, ĉar dum la politiko de OpenAI deklaras ke ĝi "ne konscie kolektas personajn informojn de infanoj sub la aĝo de 13", ekzistas neniu strikta aĝkontrolo. Ĉi tio ne bone ludas kun EU-reguloj, kiuj malpermesas la kolekton de datumoj de homoj sub 13 jaroj kaj (en iuj landoj) postulas gepatran konsenton por infanoj sub 16 jaroj. En la eligo, la GPDP diris, ke la manko de aĝaj filtriloj de ChatGPT elmontras neplenaĝulojn a "absolute neadekvataj respondoj komparite kun ilia grado da evoluo kaj memkonscio". 

Falsaj informoj

Ankaŭ la inklino de ChatGPT al provizi falsajn informojn povas esti problemo. GDPR-regularoj kondiĉas, ke ĉiuj personaj datumoj devas esti precizaj, kion la GPDP emfazis en sia anonco. Depende de kiel ĝi venas defifine, povus literumi problemon por la plej multaj AI-tekstgeneratoroj, kiuj emas " alucinoj “: Bela industria termino por efektive malĝustaj aŭ senrilataj respondoj al demando. Ĉi tio jam vidis kelkajn realajn sekvojn aliloke, kiel aŭstralia regiona urbestro minacis jurpersekuti OpenAI pro kalumnio post kiam ChatGPT malĝustabaze asertis ke li servis malliberecan punon por korupto.

La populareco de ChatGPT kaj la nuna AI-merkata regado faras ĝin aparte alloga celo, sed ne ekzistas kialo kial ĝiaj konkurantoj kaj kontribuantoj, kiel ekzemple Google kun Bard aŭ Microsoft kun ĝia Azure AI bazita sur OpenAI, ne devas alfronti ekzamenadon. Antaŭ ChatGPT, Italio malpermesis la chatbot-platformon Replika por la kolekto de informoj pri neplenaĝuloj kaj ĝis nun restis malpermesita. 

Kvankam la GDPR estas potenca aro de leĝoj, ĝi ne estis kreita por trakti specifajn problemojn pri AI. Regas tion , tamen, ili povas esti ĉe la horizonto. 

Leĝo pri Artefarita Inteligenteco

En 2021, EU prezentis sian unuan skizon de laLeĝo pri Artefarita Inteligenteco (AIA) , leĝaro kiu funkcios kune kun la GDPR. La ago reguligas AI-iloj surbaze de ilia perceptita risko, de "minimuma" (aferoj kiel spam-filtriloj) ĝis "altaj" (AI-iloj por policoj aŭ edukado) aŭ "neakcepteblaj" kaj tial malpermesitaj (kiel socia kreditsistemo). Post la eksplodo de grandaj lingvaj modeloj kiel ChatGPT pasintjare, leĝdonantoj nun kuregas por aldoni regulojn por "kernaj modeloj" kaj "Ĝeneraluzebla Artefarita Inteligenteco (GPAI) sistemoj" - du terminoj por inteligenteco-sistemoj artefarita skalo inkluzive de LLM - kaj eble. klasifiki kiel altriskaj servoj.

EU-leĝdonantoj atingis provan interkonsenton pri la AI-Leĝo la 27-an de aprilo. Komisiono voĉdonos pri la skizo la 11-an de majo, kaj la fina propono estas atendita meze de junio. Tial la Eŭropa Konsilio, la Parlamento kaj la Komisiono devos solvi ajnajn ceterajn disputojn antaŭ efektivigo de la leĝo. Se ĉio iros glate, ĝi povus esti adoptita antaŭ la dua duono de 2024, iom malantaŭ la celo. oficiala de la eŭropaj elektoj de majo 2024.

OpenAI ankoraŭ havas celojn por atingi. Estas ĝis la 30-a de septembro por krei pli striktan aĝlimon por teni sub-13-ojn ekstere kaj postuli gepatran konsenton por pli maljunaj neplenaĝaj adoleskantoj. Se ĝi malsukcesas, ĝi eble denove blokiĝos. Sed ĝi donis ekzemplon de tio, kion Eŭropo konsideras akceptebla konduto por kompanio de AI, almenaŭ ĝis novaj leĝoj estos pasigitaj.

Rilataj Legadoj

Ercole Palmeri

Informilo pri novigo
Ne maltrafu la plej gravajn novaĵojn pri novigado. Registriĝi por ricevi ilin retpoŝte.

Lastaj artikoloj

La Estonteco Estas Ĉi tie: Kiel la ŝipindustrio revolucias la tutmondan ekonomion

La maramea sektoro estas vera tutmonda ekonomia potenco, kiu navigis al merkato de 150 miliardoj...

1 Majo 2024

Eldonistoj kaj OpenAI subskribas interkonsentojn por reguligi la fluon de informoj prilaboritaj de Artefarita Inteligenteco

Pasintlunde, la Financial Times anoncis interkonsenton kun OpenAI. FT licencas sian mondklasan ĵurnalismon...

30 aprilo 2024

Interretaj Pagoj: Jen Kiel Fluaj Servoj Faras Vin Pagi Eterne

Milionoj da homoj pagas por streaming-servoj, pagante monatajn abonkotizojn. Estas komuna opinio, ke vi...

29 aprilo 2024

Veeam havas la plej ampleksan subtenon por ransomware, de protekto ĝis respondo kaj reakiro

Coveware de Veeam daŭre liveros servojn de respondaj incidentoj pri ciberĉantaĝo. Coveware ofertos krimmedicinajn kaj solvajn kapablojn...

23 aprilo 2024