Հոդվածներ

Կարգավորող AI. 3 փորձագետ բացատրում է, թե ինչու է դա դժվար անել և կարևոր լավ անել

Արհեստական ​​ինտելեկտի նոր հզոր համակարգերը կարող են ուժեղացնել խարդախությունն ու ապատեղեկատվությունը, ինչը կհանգեցնի կառավարության կանոնակարգման լայնածավալ կոչերի: Բայց դա անելն ավելի հեշտ է ասել, քան անել, և կարող է ունենալ անցանկալի հետևանքներ

Ընթերցանության գնահատված ժամանակը. 11 արձանագրություն

Տվեք նրան կեղծ լուսանկարներ Դոնալդ Թրամփին ձերբակալել են Նյու Յորքի ոստիկանության աշխատակիցները չաթ-բոտում, որը նկարագրում է մեկը համակարգչային գիտնականը շատ կենդանի է, քանի որ մահացել է ողբերգականորեն , նոր սերնդի համակարգերի կարողությունը արհեստական ​​բանականություն ազդեցիկ, բայց մտացածին տեքստ և պատկերներ ստեղծելու գեներատիվ մղումը ահազանգեր է առաջացնում ստերոիդների խարդախության և ապատեղեկատվության մասին: Իրոք, 29 թվականի մարտի 2023-ին արհեստական ​​ինտելեկտի հետազոտողների և ոլորտի գործիչների խումբը հորդորեց արդյունաբերությանը դադարեցնել ինտելեկտուալ արհեստական ​​ինտելեկտի վերջին տեխնոլոգիաների վերաբերյալ հետագա ուսուցումը կամ, արգելելով դա, կառավարություններին «մորատորիում մտցնել»:

Պատկերի գեներատորները սիրում են ԴԱԼ-Է , Միջին ճանապարհորդություն e Կայուն դիֆուզիոն և բովանդակության գեներատորներ, ինչպիսիք են Բարդ , Զրուցարան GPT , Chinchilla e Զանգեր – այժմ հասանելի են միլիոնավոր մարդկանց և օգտագործելու համար տեխնիկական գիտելիքներ չեն պահանջվում:

Հաշվի առնելով տեխնոլոգիական ընկերությունների զարգացող լանդշաֆտը, որոնք տեղակայում են AI համակարգեր և փորձարկում դրանք հանրության վրա, քաղաքականություն մշակողները պետք է իրենց հարցնեն՝ արդյոք և ինչպես կարգավորել զարգացող տեխնոլոգիան: The Conversation-ը խնդրեց տեխնոլոգիական քաղաքականության երեք փորձագետների բացատրել, թե ինչու է AI-ի կարգավորումը նման մարտահրավեր և ինչու է այդքան կարևոր այն ճիշտ իրականացնել:

Մարդկային անհաջողություններ և շարժվող թիրախ

Ս. Շյամ Սունդար, մուլտիմեդիա էֆեկտների պրոֆեսոր և տնօրեն, Սոցիալապես պատասխանատու AI-ի կենտրոն, Փեն նահանգ

Արհեստական ​​ինտելեկտը կարգավորելու պատճառն այն չէ, որ տեխնոլոգիան վերահսկողությունից դուրս է, այլ այն, որ մարդկային երևակայությունն անհամաչափ է: Լրատվամիջոցների ճնշող լուսաբանումը առաջացրել է իռացիոնալ համոզմունքներ արհեստական ​​ինտելեկտի հնարավորությունների և գիտակցության վերաբերյալ: Այս համոզմունքները հիմնված են « ավտոմատացման կողմնակալություն կամ մեր զգոնությունը թուլացնելու միտումի վրա, երբ մեքենաները կատարում են առաջադրանք: Օրինակ է օդաչուների զգոնության նվազումը երբ նրանց ինքնաթիռը թռչում է ավտոպիլոտով:

Իմ լաբորատորիայում բազմաթիվ ուսումնասիրություններ ցույց են տվել, որ երբ մեքենան, այլ ոչ թե մարդը, նույնացվում է որպես փոխազդեցության աղբյուր, այն օգտատերերի մտքում մտավոր դյուրանցում է առաջացնում, որը մենք անվանում ենք «մեքենայական էվրիստիկա»: " . Այս սղագրությունը այն համոզմունքն է, որ մեքենաները ճշգրիտ են, օբյեկտիվ, անաչառ, անսխալական և այլն: Այն մթագնում է օգտատիրոջ դատողությունը և ստիպում օգտվողին չափազանց վստահել մեքենաներին: Այնուամենայնիվ, AI-ի անսխալականության մասին մարդկանց պարզապես հիասթափեցնելը բավարար չէ, քանի որ մարդիկ, ինչպես հայտնի է, ենթագիտակցորեն ենթադրում են հմտություններ, նույնիսկ երբ տեխնոլոգիան դա չի երաշխավորում:

Հետազոտությունները նույնպես ցույց են տվել մարդիկ համակարգիչներին վերաբերվում են որպես սոցիալական էակների երբ մեքենաները ցույց են տալիս մարդասիրության նույնիսկ ամենաչնչին նշույլը, ինչպիսին է խոսակցական լեզվի օգտագործումը: Այս դեպքերում մարդիկ կիրառում են մարդկային փոխգործակցության սոցիալական կանոններ, ինչպիսիք են քաղաքավարությունը և փոխադարձությունը: Այսպիսով, երբ համակարգիչները զգայուն են թվում, մարդիկ հակված են կուրորեն վստահել նրանց: Կարգավորումն անհրաժեշտ է՝ ապահովելու համար, որ արհեստական ​​ինտելեկտի արտադրանքները արժանի են այս վստահությանը և չեն շահագործում այն:

AI-ն եզակի մարտահրավեր է ներկայացնում, քանի որ, ի տարբերություն ավանդական ինժեներական համակարգերի, դիզայներները չեն կարող վստահ լինել, թե ինչպես կգործեն AI համակարգերը: Երբ ավանդական մեքենան դուրս եկավ գործարանից, ինժեներները հստակ գիտեին, թե ինչպես է այն գործելու: Բայց ինքնակառավարվող մեքենաներով, ինժեներներ նրանք երբեք չեն կարող վստահ լինել, թե ինչպես կվարվեն նոր իրավիճակներում .

Նորարարությունը վերահսկելու դժվարություն

Վերջերս հազարավոր մարդիկ ամբողջ աշխարհում զարմացել են, թե ինչ են արտադրում մեծ գեներատիվ AI մոդելները, ինչպիսիք են GPT-4-ը և DALL-E 2-ը՝ ի պատասխան իրենց առաջարկությունների: Այս արհեստական ​​ինտելեկտի մոդելների մշակման մեջ ներգրավված ինժեներներից և ոչ մեկը չի կարող հստակ ասել, թե ինչ կարտադրեն մոդելները: Խնդիրները բարդացնելու համար այս մոդելները փոխվում և զարգանում են ավելի մեծ փոխազդեցությամբ:

Այս ամենը նշանակում է, որ սխալ հրդեհների մեծ ներուժ կա: Հետևաբար, շատ բան կախված է նրանից, թե ինչպես են կիրառվում արհեստական ​​ինտելեկտի համակարգերը և ինչ դրույթներ են գործում այն ​​դեպքում, երբ մարդու զգայունությունը կամ բարեկեցությունը վնասվում է: AI-ն ավելի շատ ենթակառուցվածք է, ինչպես մայրուղի: Դուք կարող եք այն նախագծել այնպես, որ ձևավորի մարդկային վարքագիծը կոլեկտիվում, բայց ձեզ հարկավոր են մեխանիզմներ՝ չարաշահումների դեմ պայքարելու համար, ինչպիսիք են արագության գերազանցումը և անկանխատեսելի իրադարձությունները, ինչպիսիք են վթարները:

AI մշակողները նույնպես պետք է անսովոր ստեղծագործ լինեն՝ կանխատեսելու, թե ինչպես կարող է համակարգը վարվել և փորձել կանխատեսել սոցիալական չափանիշների և պարտականությունների հնարավոր խախտումները: Սա նշանակում է, որ անհրաժեշտություն կա կարգավորող կամ կառավարման շրջանակների, որոնք հիմնված են պարբերական աուդիտների և AI-ի արդյունքների և արտադրանքների ստուգման վրա, չնայած կարծում եմ, որ այս շրջանակները պետք է նաև ընդունեն, որ համակարգի նախագծողները չեն կարող միշտ պատասխանատվություն կրել միջադեպերի համար:

«Փափուկ» և «կոշտ» մոտեցումների համադրում

Քեյսոն Շմիթ, Տեխասի A&M համալսարանի հանրային առողջության ասիստենտ

Արհեստական ​​ինտելեկտի կարգավորումը բարդ է . AI-ն լավ կարգավորելու համար նախ պետք է defiնշեք AI-ն և հասկանաք AI-ի ակնկալվող ռիսկերն ու օգուտները: DefiAI օրինական կերպով ներկայացնելը կարևոր է բացահայտելու համար, թե ինչն է ենթակա օրենքին: Բայց AI տեխնոլոգիաները դեռ զարգանում են, ուստի դժվար է defiավարտել մեկը defiկայուն իրավական սահմանում.

Կարևոր է նաև AI-ի ռիսկերն ու օգուտները հասկանալը: Լավ կարգավորումը պետք է առավելագույնի հասցնի հանրային օգուտները՝ նվազագույնի հասցնելով ռիսկերը: Այնուամենայնիվ, AI հավելվածները դեռևս առաջանում են, ուստի դժվար է իմանալ կամ կանխատեսել, թե որոնք կարող են լինել ապագա ռիսկերը կամ օգուտները: Այս տեսակի անհայտները դարձնում են զարգացող տեխնոլոգիաները, ինչպիսին AI-ն է դժվար է կարգավորել ավանդական օրենքներով և կանոնակարգերով:

Օրենսդիրներն են հաճախ չափազանց դանդաղ է հարմարվելու համար արագ փոփոխվող տեխնոլոգիական միջավայրին: Ինչ-որ մեկը նոր օրենքներ դրանք հնացած են դրանց թողարկման պահին կամ դարձրել է գործադիր. Առանց նոր օրենքների, կարգավորող մարմինների նրանք պետք է օգտագործեն հին օրենքները առերեսվել նոր խնդիրներ . Երբեմն դա հանգեցնում է իրավական խոչընդոտներ յուրաքանչյուր սոցիալական նպաստներ o իրավական բացերը յուրաքանչյուր վնասակար վարքագիծ .

Փափուկ օրենք

«փափուկ օրենք », ավանդական «կոշտ օրենքի» օրենսդրական մոտեցումների այլընտրանքն է, որն ուղղված է կոնկրետ խախտումների կանխմանը։ Փափուկ իրավունքի մոտեցմամբ մասնավոր կազմակերպությունը հիմնում է կանոններ կամ ստանդարտներ ոլորտի անդամների համար։ Դրանք կարող են փոխվել ավելի արագ, քան ավանդական օրենսդրությունը: Դա ստիպում է խոստումնալից մեղմ օրենքներ զարգացող տեխնոլոգիաների համար, քանի որ դրանք կարող են արագ հարմարվել նոր ծրագրերին և ռիսկերին: Այնուամենայնիվ, Փափուկ օրենքները կարող են նշանակել մեղմ կիրարկում .

Մեգան Դոերր , Ջենիֆեր Վագներ e io (Քեյսոն Շմիթ) առաջարկում ենք երրորդ ճանապարհը. Copyleft AI վստահելի կիրառմամբ (CAITE) . Այս մոտեցումը միավորում է մտավոր սեփականության երկու տարբեր հասկացություններ՝ լիցենզիաներ copyleft e patent troll.

Պատճենեք ձախ լիցենզիաները

Լիցենզիաները copyleft թույլ է տալիս հեշտությամբ օգտագործել, վերօգտագործել կամ փոփոխել բովանդակությունը լիցենզիայի պայմաններով, օրինակ՝ բաց կոդով ծրագրակազմը: Մոդել CAITE օգտագործել լիցենզիաներ copyleft պահանջել արհեստական ​​ինտելեկտի օգտատերերից հետևել հատուկ էթիկական ուղեցույցներին, ինչպիսիք են կողմնակալության ազդեցության թափանցիկ գնահատումը:

Մեր մոդելում այս լիցենզիաները նաև փոխանցում են լիցենզիայի խախտումները կիրառելու օրինական իրավունքը վստահելի երրորդ կողմին: Սա ստեղծում է հարկադիր մարմին, որը գոյություն ունի բացառապես AI-ի էթիկական չափանիշները կիրառելու համար և կարող է մասամբ ֆինանսավորվել ոչ էթիկական վարքագծի համար տուգանքների միջոցով: Այս էությունը նման է ա patent troll քանի որ այն մասնավոր է, այլ ոչ թե պետական ​​և աջակցում է իրեն՝ կիրարկելով օրինական մտավոր սեփականության իրավունքները, որոնք նա հավաքում է ուրիշներից: Այս դեպքում, շահույթ ստանալու փոխարեն, կազմակերպությունը կիրառում է էթիկական ուղեցույցներ definite լիցենզիաներում:

Այս մոդելը ճկուն է և հարմարվող՝ բավարարելու անընդհատ փոփոխվող AI միջավայրի կարիքները: Այն նաև թույլ է տալիս կիրառման էական տարբերակներ, ինչպիսին է ավանդական պետական ​​կարգավորիչը: Այս կերպ այն համատեղում է կոշտ և փափուկ իրավունքի մոտեցումների լավագույն տարրերը՝ AI-ի եզակի մարտահրավերներին դիմակայելու համար:

Չորս հիմնական հարց տալ

Ջոն Վիլասենոր, էլեկտրատեխնիկայի, իրավունքի, հանրային քաղաքականության և կառավարման պրոֆեսոր, Կալիֆորնիայի համալսարան, Լոս Անջելես

որ վերջին արտասովոր առաջընթաց մեծ լեզուներով մոդելների վրա հիմնված գեներատիվ AI-ն խթանում է AI-ին հատուկ նոր կարգավորումներ ստեղծելու պահանջարկը: Ահա չորս հիմնական հարցեր, որոնք պետք է ինքներդ ձեզ հարցնեք.

1) Արդյո՞ք AI-ի համար նոր հատուկ կարգավորման կարիք կա: 

AI համակարգերի պոտենցիալ խնդրահարույց արդյունքներից շատերն արդեն լուծված են գոյություն ունեցող շրջանակներով: Եթե ​​բանկի կողմից վարկային հայտերը գնահատելու համար օգտագործվող AI ալգորիթմը հանգեցնում է ռասայական խտրական վարկավորման որոշումների, դա կխախտի Արդար բնակարանային օրենքը: Եթե առանց վարորդի մեքենայի AI-ի ծրագրակազմը վթարի պատճառ է դառնում, արտադրանքի պատասխանատվության մասին օրենքը նախատեսում է. իրավական միջոցների հետապնդման շրջանակ .

2) Որո՞նք են ժամանակի պատկերի վրա հիմնված արագ զարգացող տեխնոլոգիան կարգավորելու ռիսկերը: 

Դրա դասական օրինակն է Պահված հաղորդակցության ակտ , որն ուժի մեջ է մտել 1986 թվականին՝ անդրադառնալու այն ժամանակվա նորարարական թվային հաղորդակցման տեխնոլոգիաներին, ինչպիսիք են էլ. SCA-ն ընդունելիս Կոնգրեսը զգալիորեն ավելի քիչ գաղտնիության պաշտպանություն ապահովեց 180 օրից ավելի հին էլ.փոստի համար:

Հիմնավորումն այն էր, որ սահմանափակ պահեստավորումը նշանակում էր, որ մարդիկ անընդհատ մաքրում էին իրենց մուտքի արկղերը՝ ջնջելով հին հաղորդագրությունները՝ նորերի համար տեղ ազատելու համար: Արդյունքում, ավելի քան 180 օր արխիվացված հաղորդագրությունները պակաս կարևոր են համարվել գաղտնիության տեսանկյունից: Անհասկանալի է, թե արդյոք այս տրամաբանությունը երբևէ իմաստ ունի, և դա, անշուշտ, իմաստ չունի 20-ականներին, երբ մեր նամակների մեծ մասը և արխիվացված այլ թվային հաղորդակցությունները ավելի քան վեց ամսական են:

Ժամանակի ընթացքում մեկ պատկերի վրա հիմնված տեխնոլոգիաների կարգավորման վերաբերյալ մտահոգություններին տրված ընդհանուր պատասխանը հետևյալն է. Եթե օրենքը կամ կանոնակարգը հնանում է, թարմացրեք այն: Ավելի հեշտ է ասել, քան անել: Մարդկանց մեծ մասը համաձայն է, որ SCA-ն հնացել է տասնամյակներ առաջ: Բայց քանի որ Կոնգրեսը չկարողացավ կոնկրետ համաձայնության գալ, թե ինչպես վերանայել 180 օրվա դրույթը, այն դեռևս գրքի մեջ է դրա ուժի մեջ մտնելուց ավելի քան մեկ երրորդ դար անց:

3) Որո՞նք են հնարավոր անցանկալի հետևանքները: 

Il Թույլ տվեք պետություններին և զոհերին պայքարել առցանց սեքսուալ թրաֆիքինգի մասին 2017թ դա 2018 թվականին ընդունված օրենք էր, որը նա վերանայեց Բաժին 230 «Communications Decency Act»-ի՝ սեռական թրաֆիքինգի դեմ պայքարի նպատակով: Թեև քիչ ապացույցներ կան, որ նա նվազեցրել է սեքս-թրաֆիքինգը, նա ունեցել է ա չափազանց խնդրահարույց ազդեցություն Մարդկանց տարբեր խմբերի վրա. սեքսուալ աշխատողներ, որոնք վստահում էին FOSTA-SESTA-ի կողմից անցանց վեբկայքերի վրա՝ վտանգավոր հաճախորդների մասին տեղեկություններ փոխանակելու համար: Այս օրինակը ցույց է տալիս առաջարկվող կանոնակարգերի պոտենցիալ ազդեցություններին լայն հայացք նետելու կարևորությունը:

4) Որո՞նք են տնտեսական և աշխարհաքաղաքական հետևանքները: 

Եթե ​​ԱՄՆ-ի կարգավորիչները միջոցներ ձեռնարկեն՝ միտումնավոր դանդաղեցնելու արհեստական ​​ինտելեկտի առաջընթացը, ապա դա պարզապես կնպաստի ներդրումների և նորարարություններին, և արդյունքում աշխատատեղերի ստեղծմանը, այլուր: Թեև զարգացող AI-ն շատ մտահոգություններ է առաջացնում, այն նաև խոստանում է հսկայական օգուտներ բերել այնպիսի ոլորտներում, ինչպիսիք են հրահանգ , դեղ , արտադրություն , տրանսպորտի անվտանգություն , գյուղատնտեսություն , կանխատեսվող օդերևութաբանական , իրավաբանական ծառայությունների հասանելիություն եւ ավելին.

Կարծում եմ, որ AI կանոնակարգերը, որոնք մշակվել են վերը նշված չորս հարցերը նկատի ունենալով, ավելի հավանական է, որ հաջողությամբ լուծեն AI-ի հնարավոր վնասները՝ միաժամանակ ապահովելով դրա առավելությունների հասանելիությունը:

Այս հոդվածն ազատորեն քաղված է The Conversation-ից, անկախ շահույթ չհետապնդող լրատվական կազմակերպությունից, որը նվիրված է ակադեմիական փորձագետների գիտելիքների փոխանակմանը:

Առնչվող ընթերցումներ

BlogInnovazione.it

Նորարարության տեղեկագիր
Բաց մի թողեք նորարարության մասին ամենակարևոր նորությունները: Գրանցվեք դրանք էլփոստով ստանալու համար:

Վերջին հոդվածները

Veeam-ն ունի ամենաընդգրկուն աջակցություն փրկագինին՝ պաշտպանությունից մինչև պատասխան և վերականգնում

Veeam-ի Coveware-ը կշարունակի տրամադրել կիբեր շորթման միջադեպերի արձագանքման ծառայություններ: Coveware-ը կառաջարկի դատաբժշկական և վերականգնման հնարավորություններ…

23 Ապրիլ 2024

Կանաչ և թվային հեղափոխություն. Ինչպես է կանխատեսելի սպասարկումը փոխակերպում նավթի և գազի արդյունաբերությունը

Կանխատեսելի սպասարկումը հեղափոխություն է անում նավթի և գազի ոլորտում՝ կայանի կառավարման նորարարական և ակտիվ մոտեցմամբ:…

22 Ապրիլ 2024

Մեծ Բրիտանիայի հակամենաշնորհային կարգավորիչը բարձրացնում է BigTech-ի ահազանգը GenAI-ի վերաբերյալ

Մեծ Բրիտանիայի CMA-ն նախազգուշացում է տարածել արհեստական ​​ինտելեկտի շուկայում Big Tech-ի վարքագծի վերաբերյալ: Այնտեղ…

18 Ապրիլ 2024

Casa Green. էներգետիկ հեղափոխություն կայուն ապագայի համար Իտալիայում

Շենքերի էներգաարդյունավետության բարձրացման նպատակով Եվրոպական միության կողմից ձևակերպված «Քեյս Գրին» հրամանագիրը իր օրենսդրական գործընթացն ավարտել է…

18 Ապրիլ 2024

Կարդացեք նորարարությունը ձեր լեզվով

Նորարարության տեղեկագիր
Բաց մի թողեք նորարարության մասին ամենակարևոր նորությունները: Գրանցվեք դրանք էլփոստով ստանալու համար:

Հետեւեք մեզ