Straipsniai

DI reguliavimas: 3 ekspertai paaiškina, kodėl tai sunku padaryti ir svarbu gerai

Galingos naujos dirbtinio intelekto sistemos gali sustiprinti sukčiavimą ir dezinformaciją, todėl plačiai raginama reguliuoti vyriausybę. Tačiau tai padaryti lengviau pasakyti nei padaryti ir tai gali turėti nenumatytų pasekmių

Numatomas skaitymo laikas: 11 minuti

Nuo netikros nuotraukos Niujorko policijos pareigūnų sulaikytas Donaldas Trumpas pokalbių robotui, aprašantis vieną informatikas labai gyvas ir žuvo tragiškai , naujos kartos sistemų galimybė dirbtinis intelektas generatyvus siekis kurti įtikinamą, bet fiktyvų tekstą ir vaizdus sukelia pavojaus signalus apie steroidų sukčiavimą ir dezinformaciją. Iš tiesų, 29 m. kovo 2023 d. grupė dirbtinio intelekto tyrėjų ir pramonės atstovų paragino pramonę sustabdyti tolesnius mokymus apie naujausias AI technologijas arba vyriausybes „įvesti moratoriumą“.

Vaizdo generatoriai mėgsta DALL-E , Vidurinė kelionė e Stabili difuzija ir turinio generatoriai, tokie kaip Bardai , ChatGPT , Šinšila e LLAMA – dabar yra prieinami milijonams žmonių ir naudoti nereikia jokių techninių žinių.

Atsižvelgiant į besiplečiančią technologijų įmonių, diegiančių dirbtinio intelekto sistemas ir išbandančių jas visuomenėje, kraštovaizdį, politikos formuotojai turėtų savęs paklausti, ar ir kaip reguliuoti atsirandančias technologijas. Pokalbis paprašė trijų technologijų politikos ekspertų paaiškinti, kodėl dirbtinio intelekto reguliavimas yra toks iššūkis ir kodėl taip svarbu tai padaryti teisingai.

Žmogaus klaidos ir judantis taikinys

S. Shyamas Sundaras, daugialypės terpės efektų profesorius ir Socialiai atsakingo AI centro direktorius, Penn State

Priežastis reguliuoti AI yra ne dėl to, kad technologija yra nekontroliuojama, o dėl to, kad žmogaus vaizduotė yra neproporcinga. Didžiulis žiniasklaidos nušvietimas paskatino neracionalius įsitikinimus apie AI galimybes ir sąmonę. Šie įsitikinimai yra pagrįsti " automatizavimo šališkumas “ arba apie polinkį nusileisti, kai mašinos atlieka užduotį. Pavyzdys yra sumažėjęs lakūnų budrumas kai jų lėktuvas skrenda autopilotu.

Daugybė mano laboratorijoje atliktų tyrimų parodė, kad kai mašina, o ne žmogus, identifikuojama kaip sąveikos šaltinis, naudotojų mintyse atsiranda protinis trumpinys, kurį vadiname „mašinos euristika“. " . Šis trumpinys yra įsitikinimas, kad mašinos yra tikslios, objektyvios, nešališkos, neklystančios ir pan. Tai aptemdo vartotojo sprendimą ir verčia vartotoją per daug pasitikėti mašinomis. Tačiau vien nuvilti žmones dirbtinio intelekto neklystamumu neužtenka, nes žinoma, kad žmonės nesąmoningai įgyja įgūdžių net tada, kai technologijos to nepateisina.

Tyrimai taip pat parodė žmonės kompiuterius traktuoja kaip socialines būtybes kai mašinos parodo net menkiausią žmoniškumo užuominą, pavyzdžiui, šnekamosios kalbos vartojimą. Tokiais atvejais žmonės taiko socialines žmonių sąveikos taisykles, tokias kaip mandagumas ir abipusiškumas. Taigi, kai kompiuteriai atrodo jautrūs, žmonės linkę jais aklai pasitikėti. Reguliavimas reikalingas siekiant užtikrinti, kad dirbtinio intelekto produktai nusipelno šio pasitikėjimo ir juo nesinaudoja.

DI yra unikalus iššūkis, nes, skirtingai nei tradicinės inžinerinės sistemos, dizaineriai negali būti tikri, kaip dirbtinio intelekto sistemos veiks. Kai tradicinis automobilis išriedėjo iš gamyklos, inžinieriai tiksliai žinojo, kaip jis veiks. Bet su savarankiškai važiuojančiais automobiliais, inžinieriais jie niekada negali būti tikri, kaip elgsis naujose situacijose .

Sunkumai kontroliuojant naujoves

Pastaruoju metu tūkstančiai žmonių visame pasaulyje stebėjosi, kokius didelius generuojančius AI modelius, tokius kaip GPT-4 ir DALL-E 2, gamina atsakydami į jų pasiūlymus. Nė vienas iš inžinierių, dalyvaujančių kuriant šiuos AI modelius, negalėjo tiksliai pasakyti, ką modeliai gamins. Kad reikalai būtų sudėtingesni, šie modeliai kinta ir vystosi vis labiau sąveikaujant.

Visa tai reiškia, kad yra daug uždegimo sutrikimų. Todėl daug kas priklauso nuo to, kaip DI sistemos yra įdiegtos ir kokios nuostatos taikomos, kai nukenčia žmogaus jautrumas ar gerovė. AI yra daugiau infrastruktūra, kaip greitkelis. Galite sukurti ją taip, kad formuotų žmonių elgesį kolektyve, tačiau jums reikės mechanizmų, kaip susidoroti su piktnaudžiavimu, pvz., greičio viršijimu, ir nenuspėjamais įvykiais, pavyzdžiui, avarijomis.

Dirbtinio intelekto kūrėjai taip pat turės būti nepaprastai kūrybingi, numatydami, kaip sistema gali veikti, ir stengtis numatyti galimus socialinių standartų ir atsakomybės pažeidimus. Tai reiškia, kad reikia reguliavimo ar valdymo sistemų, kurios būtų pagrįstos periodišku AI rezultatų ir produktų auditu ir tikrinimu, nors manau, kad šios sistemos taip pat turėtų pripažinti, kad sistemų kūrėjai ne visada gali būti atsakingi už incidentus.

„Minkšto“ ir „kieto“ požiūrių derinimas

Cason Schmit, Teksaso A&M universiteto visuomenės sveikatos docentas

Dirbtinio intelekto reguliavimas yra sudėtingas . Norėdami gerai sureguliuoti AI, pirmiausia turite defiišmokti dirbtinio intelekto ir suprasti numatomą AI riziką ir naudą. DefiAI legalizavimas yra svarbus norint nustatyti, kam taikomi įstatymai. Tačiau dirbtinio intelekto technologijos vis dar vystosi, todėl tai sunku defiužbaigti vieną defistabilus teisinis apibrėžimas.

Taip pat svarbu suprasti AI riziką ir naudą. Geras reglamentavimas turėtų maksimaliai padidinti visuomenės naudą ir sumažinti riziką. Tačiau dirbtinio intelekto programos vis dar atsiranda, todėl sunku žinoti ar numatyti, kokia gali būti rizika ar nauda ateityje. Dėl šių nežinomųjų naujų technologijų, tokių kaip dirbtinis intelektas, yra nepaprastai daug sunku reguliuoti su tradiciniais įstatymais ir taisyklėmis.

Įstatymų leidėjai yra dažnai per lėtai prisitaikyti prie sparčiai besikeičiančios technologinės aplinkos. kažkas naujų įstatymų yra pasenę jų išdavimo metu arba tapo vykdomuoju. Be naujų įstatymų, reguliuotojų jie turi vadovautis senais įstatymais į veidą naujų problemų . Kartais tai veda prie teisinės kliūtys už socialines išmokas o teisinių spragų už žalingas elgesys .

Minkštasis įstatymas

minkštasis įstatymas “ yra alternatyva tradiciniams „kietosios teisės“ teisėkūros metodams, kuriais siekiama užkirsti kelią konkretiems pažeidimams. Taikant neprivalomąją teisę, steigiasi privati ​​organizacija taisykles ar standartus pramonės nariams. Jie gali keistis greičiau nei tradiciniai teisės aktai. Tai daro žadantys švelnūs įstatymai naujoms technologijoms, nes jos gali greitai prisitaikyti prie naujų programų ir rizikos. Tačiau Nešvarūs įstatymai gali reikšti švelnų vykdymą .

Megan Doerr , Jennifer Wagner e io (Kasonas Šmitas) siūlome trečią būdą: Copyleft AI su patikimu vykdymu (CAITE) . Šis metodas sujungia dvi labai skirtingas intelektinės nuosavybės sąvokas: licencijas copyleft e patent troll.

Nukopijuokite kairiąsias licencijas

Licencijos copyleft leidžia lengvai naudoti, pakartotinai naudoti arba modifikuoti turinį pagal licencijos sąlygas, pvz., atvirojo kodo programinę įrangą. Modelis CAITE naudoti licencijas copyleft reikalauti, kad dirbtinio intelekto naudotojai laikytųsi konkrečių etikos gairių, pavyzdžiui, skaidriai vertintų šališkumo poveikį.

Mūsų modelyje šios licencijos taip pat perduoda teisėtą teisę vykdyti licencijų pažeidimus patikimai trečiajai šaliai. Taip sukuriamas vykdymo užtikrinimo subjektas, kuris yra skirtas tik dirbtinio intelekto etikos standartų vykdymui ir gali būti iš dalies finansuojamas baudomis už neetišką elgesį. Šis subjektas yra kaip a patent troll nes ji yra privati, o ne vyriausybinė ir išlaiko save, vykdydama teisines intelektinės nuosavybės teises, kurias renka iš kitų. Šiuo atveju, užuot siekęs pelno, įmonė laikosi etikos gairių definite licencijose.

Šis modelis yra lankstus ir pritaikomas, kad atitiktų nuolat kintančios AI aplinkos poreikius. Tai taip pat suteikia didelių vykdymo galimybių, pavyzdžiui, tradicinės vyriausybės reguliavimo institucijos. Tokiu būdu jis sujungia geriausius griežtosios ir neribotos teisės metodų elementus, kad būtų galima išspręsti unikalius AI iššūkius.

Keturi pagrindiniai klausimai, kuriuos reikia užduoti

Johnas Villasenoras, elektros inžinerijos, teisės, viešosios politikos ir vadybos profesorius, Kalifornijos universitetas, Los Andželas

Gli nepaprasta pastarojo meto pažanga didelėmis kalbomis modeliu pagrįsti generatyvinis AI skatina poreikį sukurti naują DI specifinį reguliavimą. Štai keturi pagrindiniai klausimai, kuriuos reikia užduoti sau:

1) Ar reikalingas naujas specialus DI reglamentas? 

Daugelis potencialiai problemiškų AI sistemų padarinių jau yra sprendžiami esamose sistemose. Jei banko naudojamas dirbtinio intelekto algoritmas paskolų paraiškoms įvertinti priveda prie rasiškai diskriminuojančių skolinimo sprendimų, tai pažeistų Sąžiningo būsto įstatymą. Jei AI programinė įranga automobilyje be vairuotojo sukelia avariją, atsakomybės už produktą įstatymas numato teisių gynimo priemonių taikymo sistema .

2) Kokia rizika kyla reguliuojant greitai besivystančią technologiją, pagrįstą momentine laiko nuotrauka? 

Klasikinis to pavyzdys yra Saugomų ryšių įstatymas , kuris buvo priimtas 1986 m., siekiant spręsti tuometines novatoriškas skaitmeninės komunikacijos technologijas, tokias kaip el. Priimdamas SCA Kongresas suteikė žymiai mažesnę privatumo apsaugą senesniems nei 180 dienų el.

Priežastis buvo ta, kad ribota saugykla reiškia, kad žmonės nuolat tvarkė savo gautuosius, ištrindami senesnius pranešimus, kad atsirastų vietos naujiems. Dėl to daugiau nei 180 dienų archyvuoti pranešimai buvo laikomi mažiau svarbiais privatumo požiūriu. Neaišku, ar ši logika kada nors turėjo prasmę, ir ji tikrai nėra prasminga XX amžiaus trečiajame dešimtmetyje, kai dauguma mūsų el. laiškų ir kitų archyvuotų skaitmeninių pranešimų yra senesni nei šeši mėnesiai.

Dažnas atsakas į susirūpinimą dėl technologijos reguliavimo, pagrįsto vienu momentiniu laiku, yra toks: jei įstatymas ar reglamentas pasensta, atnaujinkite jį. Tai lengviau pasakyti nei padaryti. Daugelis žmonių sutinka, kad SCA paseno prieš dešimtmečius. Tačiau kadangi Kongresas nesugebėjo konkrečiai susitarti, kaip peržiūrėti 180 dienų nuostatą, ji vis dar yra knygose praėjus daugiau nei trečdaliui amžiaus nuo jos įsigaliojimo.

3) Kokios galimos nenumatytos pasekmės? 

Il Leisti valstybėms ir aukoms kovoti su prekyba seksu internetu 2017 m. aktas tai buvo 2018 metais priimtas įstatymas, kurį jis peržiūrėjo 230 skirsnis Ryšių padorumo įstatymo, kurio tikslas – kovoti su prekyba seksu. Nors yra mažai įrodymų, kad jis sumažino prekybą seksu, jis turėjo a itin problemiškas poveikis kitai žmonių grupei: sekso paslaugų teikėjams, kurie pasitikėjo FOSTA-SESTA neprisijungusiomis svetainėmis, kad keistųsi informacija apie pavojingus klientus. Šis pavyzdys rodo, kaip svarbu plačiai pažvelgti į galimą siūlomų reglamentų poveikį.

4) Kokios yra ekonominės ir geopolitinės pasekmės? 

Jei JAV reguliavimo institucijos imsis veiksmų, kad tyčia sulėtintų dirbtinio intelekto pažangą, tai tiesiog paskatins investicijas ir inovacijas, o kartu ir darbo vietų kūrimą – kitur. Nors besiformuojantis AI kelia daug rūpesčių, jis taip pat žada atnešti didžiulės naudos tokiose srityse kaip instrukcija , medicina , gamyba , transporto sauga , žemdirbystė , išankstinė meteorologija , galimybė gauti teisines paslaugas e altro anora.

Manau, kad dirbtinio intelekto reglamentai, parengti atsižvelgiant į pirmiau minėtus keturis klausimus, greičiausiai padės sėkmingai išspręsti galimą AI žalą, tuo pačiu užtikrinant prieigą prie jo privalumų.

Šis straipsnis yra laisvai paimtas iš The Conversation, nepriklausomos ne pelno naujienų organizacijos, skirtos dalytis akademinių ekspertų žiniomis.

Susiję skaitiniai

BlogInnovazione.it

Inovacijų naujienlaiškis
Nepraleiskite svarbiausių naujienų apie naujoves. Prisiregistruokite, kad gautumėte juos el.

Naujausi straipsniai

Vaikų spalvinimo puslapių privalumai – magijos pasaulis įvairaus amžiaus žmonėms

Lavindami smulkiosios motorikos įgūdžius dažydami, vaikai paruošiami sudėtingesniems įgūdžiams, pavyzdžiui, rašymui. Norėdami nuspalvinti…

2 gegužės 2024

Ateitis yra čia: kaip laivybos pramonė sukelia pasaulinės ekonomikos revoliuciją

Karinio jūrų laivyno sektorius yra tikra pasaulinė ekonominė galia, kuri pasiekė 150 mlrd.

1 gegužės 2024

Leidėjai ir OpenAI pasirašo sutartis dėl dirbtinio intelekto apdorojamos informacijos srauto reguliavimo

Praėjusį pirmadienį „Financial Times“ paskelbė apie susitarimą su „OpenAI“. FT licencijuoja savo pasaulinio lygio žurnalistiką…

30 balandis 2024

Mokėjimai internetu: štai kaip srautinio perdavimo paslaugos priverčia mokėti amžinai

Milijonai žmonių moka už srautinio perdavimo paslaugas, mokėdami mėnesinius abonentinius mokesčius. Paplitusi nuomonė, kad jūs…

29 balandis 2024