Articole

Reglementarea AI: 3 experți explică de ce este greu de făcut și important să faci bine

Noi sisteme puternice de inteligență artificială ar putea amplifica frauda și dezinformarea, ceea ce duce la solicitări pe scară largă pentru reglementări guvernamentale. Dar acest lucru este mai ușor de spus decât de făcut și ar putea avea consecințe nedorite

Timp de citire estimat: 11 minute

De la fotografii false lui Donald Trump arestat de ofițerii de poliție din New York la un chatbot care descrie unul informatician foarte viu ca a murit tragic , capacitatea noii generații de sisteme inteligenta artificiala impulsul generativ de a crea texte și imagini convingătoare, dar fictive, declanșează alarme despre frauda cu steroizi și dezinformarea. Într-adevăr, pe 29 martie 2023, un grup de cercetători în domeniul inteligenței artificiale și personalități din industrie au îndemnat industria să suspende formarea suplimentară cu privire la cele mai recente tehnologii de inteligență artificială sau, în afară de aceasta, guvernele „să impună un moratoriu”.

Generatoare de imagini ca DALĂ , Mijlocul călătoriei e Difuzie stabilă și generatori de conținut precum Bard , Chat GPT , Chinchilla e Lamă – sunt acum disponibile pentru milioane de oameni și nu necesită cunoștințe tehnice pentru utilizare.

Având în vedere peisajul în desfășurare al companiilor tehnologice care implementează sisteme AI și le testează pe public, factorii de decizie ar trebui să se întrebe dacă și cum să reglementeze tehnologia emergentă. Conversația a cerut trei experți în politici tehnologice să explice de ce reglementarea AI este o provocare atât de mare și de ce este atât de important să o facem corect.

Deficiențe umane și o țintă în mișcare

S. Shyam Sundar, profesor de efecte multimedia și director, Center for Socially Responsible AI, Penn State

Motivul pentru a reglementa AI nu este pentru că tehnologia este scăpată de sub control, ci pentru că imaginația umană este disproporționată. Acoperirea media copleșitoare a alimentat credințe iraționale despre capacitățile și conștiința AI. Aceste convingeri se bazează pe „ bias de automatizare ” sau asupra tendinței de a lăsa garda jos atunci când mașinile îndeplinesc o sarcină. Un exemplu este vigilenţa redusă în rândul piloţilor când avionul lor zboară pe pilot automat.

Numeroase studii din laboratorul meu au arătat că atunci când o mașină, mai degrabă decât un om, este identificată ca sursă de interacțiune, declanșează o scurtătură mentală în mintea utilizatorilor pe care o numim „euristica mașinii”.   . Această prescurtare este convingerea că mașinile sunt precise, obiective, imparțiale, infailibile și așa mai departe. Încețoșează raționamentul utilizatorului și determină utilizatorul să aibă încredere excesivă în mașini. Cu toate acestea, pur și simplu dezamăgirea oamenilor cu privire la infailibilitatea inteligenței artificiale nu este suficientă, deoarece oamenii se știe că își asumă în mod subconștient competență chiar și atunci când tehnologia nu o justifică.

Cercetările au arătat, de asemenea, că oamenii tratează computerele ca pe niște ființe sociale când mașinile arată chiar și cel mai mic indiciu de umanitate, cum ar fi utilizarea limbajului conversațional. În aceste cazuri, oamenii aplică reguli sociale ale interacțiunii umane, cum ar fi politețea și reciprocitatea. Deci, atunci când computerele par sensibile, oamenii tind să aibă încredere în ele orbește. Este necesară reglementarea pentru a se asigura că produsele AI merită această încredere și nu o exploatează.

AI prezintă o provocare unică deoarece, spre deosebire de sistemele tradiționale de inginerie, proiectanții nu pot fi siguri cum vor funcționa sistemele AI. Când un automobil tradițional a ieșit din fabrică, inginerii știau exact cum avea să funcționeze. Dar cu mașini autonome, ingineri nu pot fi niciodată siguri cum se vor comporta în situații noi .

Dificultate în controlul inovației

În ultimul timp, mii de oameni din întreaga lume s-au minunat de ce produc modele mari de IA generativă precum GPT-4 și DALL-E 2 ca răspuns la sugestiile lor. Niciunul dintre inginerii implicați în dezvoltarea acestor modele AI nu v-a putut spune exact ce vor produce modelele. Pentru a complica lucrurile, aceste modele se schimbă și evoluează cu o interacțiune din ce în ce mai mare.

Toate acestea înseamnă că există un potențial amplu pentru rateuri. Prin urmare, mult depinde de modul în care sistemele AI sunt implementate și de ce dispoziții de recurs sunt în vigoare atunci când sensibilitățile umane sau bunăstarea sunt afectate. AI este mai mult o infrastructură, ca o autostradă. Îl puteți proiecta pentru a modela comportamentele umane în colectiv, dar veți avea nevoie de mecanisme pentru a face față abuzurilor, cum ar fi viteza și evenimentele imprevizibile, cum ar fi accidentele.

Dezvoltatorii de IA vor trebui, de asemenea, să fie extraordinar de creativi în a prezice modurile în care s-ar putea comporta sistemul și să încerce să anticipeze potențialele încălcări ale standardelor și responsabilităților sociale. Aceasta înseamnă că este nevoie de cadre de reglementare sau de guvernanță care se bazează pe audituri periodice și pe controlul rezultatelor și produselor AI, deși cred că aceste cadre ar trebui să recunoască, de asemenea, că designerii de sisteme nu pot fi întotdeauna trași la răspundere pentru incidente .

Combinând abordările „soft” și „hard”.

Cason Schmit, profesor asistent de sănătate publică, Universitatea Texas A&M

Reglementarea inteligenței artificiale este complicată . Pentru a regla bine AI, trebuie mai întâi defiterminați AI și înțelegeți riscurile și beneficiile așteptate ale AI. DefiLegalizarea IA este importantă pentru a identifica ceea ce face obiectul legii. Dar tehnologiile AI continuă să evolueze, așa că este dificil defitermina unul defidefiniție legală stabilă.

Înțelegerea riscurilor și beneficiilor AI este, de asemenea, importantă. O bună reglementare ar trebui să maximizeze beneficiile publice, reducând în același timp riscurile. Cu toate acestea, aplicațiile AI sunt încă în curs de dezvoltare, așa că este dificil de știut sau de prezis care ar putea fi riscurile sau beneficiile viitoare. Aceste tipuri de necunoscute fac tehnologiile emergente precum AI extrem de extrem greu de reglementat cu legile și reglementările tradiționale.

Legislatorii sunt adesea prea lent pentru a se ajusta la mediul tehnologic în schimbare rapidă. Cineva legi noi sunt învechite în momentul emiterii sau pusă în aplicare. Fără legi noi, autorități de reglementare trebuie să folosească vechile legi pe afrontare probleme noi . Uneori acest lucru duce la bariere legale pentru beneficii sociale o lacune legale pentru comportamente nocive .

Soft Law

""legea moale ” sunt alternativa la abordările legislative tradiționale de „lege dur” care vizează prevenirea încălcărilor specifice. În abordarea soft law, o organizație privată stabilește reguli sau standarde pentru membrii industriei. Acestea se pot schimba mai rapid decât legislația tradițională. Asta face promițând legi soft pentru tehnologiile emergente, deoarece se pot adapta rapid la noile aplicații și riscuri. In orice caz, Legile soft pot însemna aplicarea soft .

Megan Doerr , Jennifer Wagner e io (Cason Schmit) propunem o a treia cale: Copyleft AI cu Trusted Enforcement (CAITE) . Această abordare combină două concepte foarte diferite în domeniul proprietății intelectuale: licențe copyleft e patent troll.

Copiați licențele din stânga

Licentele copyleft vă permit să utilizați, reutilizați sau modificați cu ușurință conținutul conform condițiilor unei licențe, cum ar fi software-ul open source. Model CAITE utilizarea licențelor copyleft să solicite utilizatorilor AI să urmeze orientări etice specifice, cum ar fi evaluări transparente ale impactului părtinirii.

În modelul nostru, aceste licențe transferă, de asemenea, dreptul legal de a impune încălcările licenței unei terțe părți de încredere. Acest lucru creează o entitate de aplicare care există doar pentru a aplica standardele etice ale AI și poate fi finanțată parțial din amenzi pentru comportament neetic. Această entitate este ca un patent troll deoarece este mai degrabă privată decât guvernamentală și se întreține prin aplicarea drepturilor legale de proprietate intelectuală pe care le colectează de la alții. În acest caz, mai degrabă decât să lucreze pentru profit, entitatea aplică liniile directoare etice definite in licente.

Acest model este flexibil și adaptabil pentru a răspunde nevoilor unui mediu AI în continuă schimbare. De asemenea, permite opțiuni substanțiale de aplicare, cum ar fi un organism de reglementare guvernamental tradițional. În acest fel, combină cele mai bune elemente ale abordărilor de drept strict și neobligatori pentru a aborda provocările unice ale IA.

Patru întrebări cheie de pus

John Villasenor, profesor de inginerie electrică, drept, politici publice și management, Universitatea din California, Los Angeles

Gli progres recent extraordinar în limbajul mare, IA generativă bazată pe modele stimulează cererea de a crea noi reglementări specifice AI. Iată patru întrebări cheie pe care să ți le pui:

1) Este nevoie de o nouă reglementare specifică pentru IA? 

Multe dintre rezultatele potențial problematice ale sistemelor AI sunt deja abordate de cadrele existente. Dacă un algoritm AI utilizat de o bancă pentru a evalua cererile de împrumut conduce la decizii de împrumut discriminatorii din punct de vedere rasial, ar încălca Legea privind locuințele echitabile. Dacă software-ul AI dintr-o mașină fără șofer provoacă un accident, legea răspunderii pentru produse prevede o cadrul de urmărire a căilor de atac .

2) Care sunt riscurile reglementării unei tehnologii în evoluție rapidă bazată pe un instantaneu al timpului? 

Un exemplu clasic în acest sens este Legea privind comunicațiile stocate , care a fost adoptată în 1986 pentru a aborda tehnologiile de comunicare digitală inovatoare de atunci, cum ar fi e-mailul. Prin adoptarea SCA, Congresul a oferit mult mai puțină protecție a confidențialității pentru e-mailurile mai vechi de 180 de zile.

Motivul a fost că stocarea limitată însemna că oamenii își curăță în mod constant căsuțele de e-mail ștergând mesajele mai vechi pentru a face loc celor noi. Drept urmare, mesajele arhivate mai mult de 180 de zile au fost considerate mai puțin importante din perspectiva confidențialității. Nu este clar dacă această logică a avut vreodată sens și, cu siguranță, nu are sens în anii 20, când majoritatea e-mailurilor noastre și a altor comunicări digitale arhivate au mai mult de șase luni.

Un răspuns comun la preocupările legate de reglementarea tehnologiei bazate pe un singur instantaneu de-a lungul timpului este următorul: dacă o lege sau o reglementare devine învechită, actualizați-o. Este mai ușor de spus decât de făcut. Majoritatea oamenilor sunt de acord că SCA a devenit învechită cu zeci de ani în urmă. Dar pentru că Congresul nu a reușit să cadă de acord în mod specific cu privire la modul de revizuire a prevederii de 180 de zile, aceasta este încă publicată la mai mult de o treime de secol după ce a fost adoptată.

3) Care sunt potențialele consecințe nedorite? 

Il Permiteți statelor și victimelor să lupte prin Legea privind traficul sexual online din 2017 a fost o lege adoptată în 2018 pe care a revizuit-o Secțiunea 230 a Legii decenței în comunicare cu scopul de a combate traficul sexual. Deși există puține dovezi că a redus traficul sexual, el a avut o impact extrem de problematic pe un alt grup de persoane: lucrători sexuali care s-au bazat pe site-uri web luate offline de FOSTA-SESTA pentru a face schimb de informații despre clienți periculoși. Acest exemplu arată importanța unei analize ample asupra efectelor potențiale ale reglementărilor propuse.

4) Care sunt implicațiile economice și geopolitice? 

Dacă autoritățile de reglementare din SUA iau măsuri pentru a încetini în mod intenționat progresul în domeniul inteligenței artificiale, aceasta va împinge pur și simplu investițiile și inovarea – și crearea de locuri de muncă care rezultă – în altă parte. Deși IA emergentă ridică multe preocupări, promite, de asemenea, să aducă beneficii uriașe în domenii precum educație , medicament , producere , siguranța transportului , agricultură , previziuni meteorologice , acces la servicii juridice și altele.

Consider că reglementările AI elaborate ținând cont de cele patru întrebări de mai sus vor avea mai multe șanse să abordeze cu succes potențialele daune ale IA, asigurând în același timp accesul la beneficiile acesteia.

Acest articol este extras gratuit din The Conversation, o organizație independentă de știri non-profit dedicată împărtășirii cunoștințelor experților academicieni.

Lecturi înrudite

BlogInnovazione.it

Buletin informativ de inovare
Nu rata cele mai importante știri despre inovație. Înscrieți-vă pentru a le primi pe e-mail.

Articole recente

Editorii și OpenAI semnează acorduri pentru a reglementa fluxul de informații procesate de Inteligența Artificială

Luni trecută, Financial Times a anunțat un acord cu OpenAI. FT își licențiază jurnalismul de clasă mondială...

Aprilie 30 2024

Plăți online: Iată cum serviciile de streaming vă fac să plătiți pentru totdeauna

Milioane de oameni plătesc pentru serviciile de streaming, plătind taxe lunare de abonament. Este o părere comună că tu...

Aprilie 29 2024

Veeam oferă cel mai complet suport pentru ransomware, de la protecție la răspuns și recuperare

Coveware de la Veeam va continua să ofere servicii de răspuns la incidente de extorcare cibernetică. Coveware va oferi capacități criminalistice și de remediere...

Aprilie 23 2024

Revoluția verde și digitală: cum întreținerea predictivă transformă industria petrolului și gazelor

Întreținerea predictivă revoluționează sectorul petrolului și gazelor, cu o abordare inovatoare și proactivă a managementului uzinelor...

Aprilie 22 2024