Ընթերցանության գնահատված ժամանակը. 11 արձանագրություն
Տվեք նրան կեղծ լուսանկարներ Դոնալդ Թրամփին ձերբակալել են Նյու Յորքի ոստիկանության աշխատակիցները չաթ-բոտում, որը նկարագրում է մեկը համակարգչային գիտնականը շատ կենդանի է, քանի որ մահացել է ողբերգականորեն , նոր սերնդի համակարգերի կարողությունը արհեստական բանականություն ազդեցիկ, բայց մտացածին տեքստ և պատկերներ ստեղծելու գեներատիվ մղումը ահազանգեր է առաջացնում ստերոիդների խարդախության և ապատեղեկատվության մասին: Իրոք, 29 թվականի մարտի 2023-ին արհեստական ինտելեկտի հետազոտողների և ոլորտի գործիչների խումբը հորդորեց արդյունաբերությանը դադարեցնել ինտելեկտուալ արհեստական ինտելեկտի վերջին տեխնոլոգիաների վերաբերյալ հետագա ուսուցումը կամ, արգելելով դա, կառավարություններին «մորատորիում մտցնել»:
Պատկերի գեներատորները սիրում են ԴԱԼ-Է , Միջին ճանապարհորդություն e Կայուն դիֆուզիոն և բովանդակության գեներատորներ, ինչպիսիք են Բարդ , Զրուցարան GPT , Chinchilla e Զանգեր – այժմ հասանելի են միլիոնավոր մարդկանց և օգտագործելու համար տեխնիկական գիտելիքներ չեն պահանջվում:
Հաշվի առնելով տեխնոլոգիական ընկերությունների զարգացող լանդշաֆտը, որոնք տեղակայում են AI համակարգեր և փորձարկում դրանք հանրության վրա, քաղաքականություն մշակողները պետք է իրենց հարցնեն՝ արդյոք և ինչպես կարգավորել զարգացող տեխնոլոգիան: The Conversation-ը խնդրեց տեխնոլոգիական քաղաքականության երեք փորձագետների բացատրել, թե ինչու է AI-ի կարգավորումը նման մարտահրավեր և ինչու է այդքան կարևոր այն ճիշտ իրականացնել:
Ս. Շյամ Սունդար, մուլտիմեդիա էֆեկտների պրոֆեսոր և տնօրեն, Սոցիալապես պատասխանատու AI-ի կենտրոն, Փեն նահանգ
Արհեստական ինտելեկտը կարգավորելու պատճառն այն չէ, որ տեխնոլոգիան վերահսկողությունից դուրս է, այլ այն, որ մարդկային երևակայությունն անհամաչափ է: Լրատվամիջոցների ճնշող լուսաբանումը առաջացրել է իռացիոնալ համոզմունքներ արհեստական ինտելեկտի հնարավորությունների և գիտակցության վերաբերյալ: Այս համոզմունքները հիմնված են « ավտոմատացման կողմնակալություն կամ մեր զգոնությունը թուլացնելու միտումի վրա, երբ մեքենաները կատարում են առաջադրանք: Օրինակ է օդաչուների զգոնության նվազումը երբ նրանց ինքնաթիռը թռչում է ավտոպիլոտով:
Իմ լաբորատորիայում բազմաթիվ ուսումնասիրություններ ցույց են տվել, որ երբ մեքենան, այլ ոչ թե մարդը, նույնացվում է որպես փոխազդեցության աղբյուր, այն օգտատերերի մտքում մտավոր դյուրանցում է առաջացնում, որը մենք անվանում ենք «մեքենայական էվրիստիկա»: " . Այս սղագրությունը այն համոզմունքն է, որ մեքենաները ճշգրիտ են, օբյեկտիվ, անաչառ, անսխալական և այլն: Այն մթագնում է օգտատիրոջ դատողությունը և ստիպում օգտվողին չափազանց վստահել մեքենաներին: Այնուամենայնիվ, AI-ի անսխալականության մասին մարդկանց պարզապես հիասթափեցնելը բավարար չէ, քանի որ մարդիկ, ինչպես հայտնի է, ենթագիտակցորեն ենթադրում են հմտություններ, նույնիսկ երբ տեխնոլոգիան դա չի երաշխավորում:
Հետազոտությունները նույնպես ցույց են տվել մարդիկ համակարգիչներին վերաբերվում են որպես սոցիալական էակների երբ մեքենաները ցույց են տալիս մարդասիրության նույնիսկ ամենաչնչին նշույլը, ինչպիսին է խոսակցական լեզվի օգտագործումը: Այս դեպքերում մարդիկ կիրառում են մարդկային փոխգործակցության սոցիալական կանոններ, ինչպիսիք են քաղաքավարությունը և փոխադարձությունը: Այսպիսով, երբ համակարգիչները զգայուն են թվում, մարդիկ հակված են կուրորեն վստահել նրանց: Կարգավորումն անհրաժեշտ է՝ ապահովելու համար, որ արհեստական ինտելեկտի արտադրանքները արժանի են այս վստահությանը և չեն շահագործում այն:
AI-ն եզակի մարտահրավեր է ներկայացնում, քանի որ, ի տարբերություն ավանդական ինժեներական համակարգերի, դիզայներները չեն կարող վստահ լինել, թե ինչպես կգործեն AI համակարգերը: Երբ ավանդական մեքենան դուրս եկավ գործարանից, ինժեներները հստակ գիտեին, թե ինչպես է այն գործելու: Բայց ինքնակառավարվող մեքենաներով, ինժեներներ նրանք երբեք չեն կարող վստահ լինել, թե ինչպես կվարվեն նոր իրավիճակներում .
Վերջերս հազարավոր մարդիկ ամբողջ աշխարհում զարմացել են, թե ինչ են արտադրում մեծ գեներատիվ AI մոդելները, ինչպիսիք են GPT-4-ը և DALL-E 2-ը՝ ի պատասխան իրենց առաջարկությունների: Այս արհեստական ինտելեկտի մոդելների մշակման մեջ ներգրավված ինժեներներից և ոչ մեկը չի կարող հստակ ասել, թե ինչ կարտադրեն մոդելները: Խնդիրները բարդացնելու համար այս մոդելները փոխվում և զարգանում են ավելի մեծ փոխազդեցությամբ:
Այս ամենը նշանակում է, որ սխալ հրդեհների մեծ ներուժ կա: Հետևաբար, շատ բան կախված է նրանից, թե ինչպես են կիրառվում արհեստական ինտելեկտի համակարգերը և ինչ դրույթներ են գործում այն դեպքում, երբ մարդու զգայունությունը կամ բարեկեցությունը վնասվում է: AI-ն ավելի շատ ենթակառուցվածք է, ինչպես մայրուղի: Դուք կարող եք այն նախագծել այնպես, որ ձևավորի մարդկային վարքագիծը կոլեկտիվում, բայց ձեզ հարկավոր են մեխանիզմներ՝ չարաշահումների դեմ պայքարելու համար, ինչպիսիք են արագության գերազանցումը և անկանխատեսելի իրադարձությունները, ինչպիսիք են վթարները:
AI մշակողները նույնպես պետք է անսովոր ստեղծագործ լինեն՝ կանխատեսելու, թե ինչպես կարող է համակարգը վարվել և փորձել կանխատեսել սոցիալական չափանիշների և պարտականությունների հնարավոր խախտումները: Սա նշանակում է, որ անհրաժեշտություն կա կարգավորող կամ կառավարման շրջանակների, որոնք հիմնված են պարբերական աուդիտների և AI-ի արդյունքների և արտադրանքների ստուգման վրա, չնայած կարծում եմ, որ այս շրջանակները պետք է նաև ընդունեն, որ համակարգի նախագծողները չեն կարող միշտ պատասխանատվություն կրել միջադեպերի համար:
Քեյսոն Շմիթ, Տեխասի A&M համալսարանի հանրային առողջության ասիստենտ
Արհեստական ինտելեկտի կարգավորումը բարդ է . AI-ն լավ կարգավորելու համար նախ պետք է defiնշեք AI-ն և հասկանաք AI-ի ակնկալվող ռիսկերն ու օգուտները: DefiAI օրինական կերպով ներկայացնելը կարևոր է բացահայտելու համար, թե ինչն է ենթակա օրենքին: Բայց AI տեխնոլոգիաները դեռ զարգանում են, ուստի դժվար է defiավարտել մեկը defiկայուն իրավական սահմանում.
Կարևոր է նաև AI-ի ռիսկերն ու օգուտները հասկանալը: Լավ կարգավորումը պետք է առավելագույնի հասցնի հանրային օգուտները՝ նվազագույնի հասցնելով ռիսկերը: Այնուամենայնիվ, AI հավելվածները դեռևս առաջանում են, ուստի դժվար է իմանալ կամ կանխատեսել, թե որոնք կարող են լինել ապագա ռիսկերը կամ օգուտները: Այս տեսակի անհայտները դարձնում են զարգացող տեխնոլոգիաները, ինչպիսին AI-ն է դժվար է կարգավորել ավանդական օրենքներով և կանոնակարգերով:
Օրենսդիրներն են հաճախ չափազանց դանդաղ է հարմարվելու համար արագ փոփոխվող տեխնոլոգիական միջավայրին: Ինչ-որ մեկը նոր օրենքներ դրանք հնացած են դրանց թողարկման պահին կամ դարձրել է գործադիր. Առանց նոր օրենքների, կարգավորող մարմինների նրանք պետք է օգտագործեն հին օրենքները առերեսվել նոր խնդիրներ . Երբեմն դա հանգեցնում է իրավական խոչընդոտներ յուրաքանչյուր սոցիալական նպաստներ o իրավական բացերը յուրաքանչյուր վնասակար վարքագիծ .
«փափուկ օրենք », ավանդական «կոշտ օրենքի» օրենսդրական մոտեցումների այլընտրանքն է, որն ուղղված է կոնկրետ խախտումների կանխմանը։ Փափուկ իրավունքի մոտեցմամբ մասնավոր կազմակերպությունը հիմնում է կանոններ կամ ստանդարտներ ոլորտի անդամների համար։ Դրանք կարող են փոխվել ավելի արագ, քան ավանդական օրենսդրությունը: Դա ստիպում է խոստումնալից մեղմ օրենքներ զարգացող տեխնոլոգիաների համար, քանի որ դրանք կարող են արագ հարմարվել նոր ծրագրերին և ռիսկերին: Այնուամենայնիվ, Փափուկ օրենքները կարող են նշանակել մեղմ կիրարկում .
Մեգան Դոերր , Ջենիֆեր Վագներ e io (Քեյսոն Շմիթ) առաջարկում ենք երրորդ ճանապարհը. Copyleft AI վստահելի կիրառմամբ (CAITE) . Այս մոտեցումը միավորում է մտավոր սեփականության երկու տարբեր հասկացություններ՝ լիցենզիաներ copyleft
e patent troll
.
Լիցենզիաները copyleft
թույլ է տալիս հեշտությամբ օգտագործել, վերօգտագործել կամ փոփոխել բովանդակությունը լիցենզիայի պայմաններով, օրինակ՝ բաց կոդով ծրագրակազմը: Մոդել CAITE
օգտագործել լիցենզիաներ copyleft
պահանջել արհեստական ինտելեկտի օգտատերերից հետևել հատուկ էթիկական ուղեցույցներին, ինչպիսիք են կողմնակալության ազդեցության թափանցիկ գնահատումը:
Մեր մոդելում այս լիցենզիաները նաև փոխանցում են լիցենզիայի խախտումները կիրառելու օրինական իրավունքը վստահելի երրորդ կողմին: Սա ստեղծում է հարկադիր մարմին, որը գոյություն ունի բացառապես AI-ի էթիկական չափանիշները կիրառելու համար և կարող է մասամբ ֆինանսավորվել ոչ էթիկական վարքագծի համար տուգանքների միջոցով: Այս էությունը նման է ա patent troll
քանի որ այն մասնավոր է, այլ ոչ թե պետական և աջակցում է իրեն՝ կիրարկելով օրինական մտավոր սեփականության իրավունքները, որոնք նա հավաքում է ուրիշներից: Այս դեպքում, շահույթ ստանալու փոխարեն, կազմակերպությունը կիրառում է էթիկական ուղեցույցներ definite լիցենզիաներում:
Այս մոդելը ճկուն է և հարմարվող՝ բավարարելու անընդհատ փոփոխվող AI միջավայրի կարիքները: Այն նաև թույլ է տալիս կիրառման էական տարբերակներ, ինչպիսին է ավանդական պետական կարգավորիչը: Այս կերպ այն համատեղում է կոշտ և փափուկ իրավունքի մոտեցումների լավագույն տարրերը՝ AI-ի եզակի մարտահրավերներին դիմակայելու համար:
Ջոն Վիլասենոր, էլեկտրատեխնիկայի, իրավունքի, հանրային քաղաքականության և կառավարման պրոֆեսոր, Կալիֆորնիայի համալսարան, Լոս Անջելես
որ վերջին արտասովոր առաջընթաց մեծ լեզուներով մոդելների վրա հիմնված գեներատիվ AI-ն խթանում է AI-ին հատուկ նոր կարգավորումներ ստեղծելու պահանջարկը: Ահա չորս հիմնական հարցեր, որոնք պետք է ինքներդ ձեզ հարցնեք.
AI համակարգերի պոտենցիալ խնդրահարույց արդյունքներից շատերն արդեն լուծված են գոյություն ունեցող շրջանակներով: Եթե բանկի կողմից վարկային հայտերը գնահատելու համար օգտագործվող AI ալգորիթմը հանգեցնում է ռասայական խտրական վարկավորման որոշումների, դա կխախտի Արդար բնակարանային օրենքը: Եթե առանց վարորդի մեքենայի AI-ի ծրագրակազմը վթարի պատճառ է դառնում, արտադրանքի պատասխանատվության մասին օրենքը նախատեսում է. իրավական միջոցների հետապնդման շրջանակ .
Դրա դասական օրինակն է Պահված հաղորդակցության ակտ , որն ուժի մեջ է մտել 1986 թվականին՝ անդրադառնալու այն ժամանակվա նորարարական թվային հաղորդակցման տեխնոլոգիաներին, ինչպիսիք են էլ. SCA-ն ընդունելիս Կոնգրեսը զգալիորեն ավելի քիչ գաղտնիության պաշտպանություն ապահովեց 180 օրից ավելի հին էլ.փոստի համար:
Հիմնավորումն այն էր, որ սահմանափակ պահեստավորումը նշանակում էր, որ մարդիկ անընդհատ մաքրում էին իրենց մուտքի արկղերը՝ ջնջելով հին հաղորդագրությունները՝ նորերի համար տեղ ազատելու համար: Արդյունքում, ավելի քան 180 օր արխիվացված հաղորդագրությունները պակաս կարևոր են համարվել գաղտնիության տեսանկյունից: Անհասկանալի է, թե արդյոք այս տրամաբանությունը երբևէ իմաստ ունի, և դա, անշուշտ, իմաստ չունի 20-ականներին, երբ մեր նամակների մեծ մասը և արխիվացված այլ թվային հաղորդակցությունները ավելի քան վեց ամսական են:
Ժամանակի ընթացքում մեկ պատկերի վրա հիմնված տեխնոլոգիաների կարգավորման վերաբերյալ մտահոգություններին տրված ընդհանուր պատասխանը հետևյալն է. Եթե օրենքը կամ կանոնակարգը հնանում է, թարմացրեք այն: Ավելի հեշտ է ասել, քան անել: Մարդկանց մեծ մասը համաձայն է, որ SCA-ն հնացել է տասնամյակներ առաջ: Բայց քանի որ Կոնգրեսը չկարողացավ կոնկրետ համաձայնության գալ, թե ինչպես վերանայել 180 օրվա դրույթը, այն դեռևս գրքի մեջ է դրա ուժի մեջ մտնելուց ավելի քան մեկ երրորդ դար անց:
Il Թույլ տվեք պետություններին և զոհերին պայքարել առցանց սեքսուալ թրաֆիքինգի մասին 2017թ դա 2018 թվականին ընդունված օրենք էր, որը նա վերանայեց Բաժին 230 «Communications Decency Act»-ի՝ սեռական թրաֆիքինգի դեմ պայքարի նպատակով: Թեև քիչ ապացույցներ կան, որ նա նվազեցրել է սեքս-թրաֆիքինգը, նա ունեցել է ա չափազանց խնդրահարույց ազդեցություն Մարդկանց տարբեր խմբերի վրա. սեքսուալ աշխատողներ, որոնք վստահում էին FOSTA-SESTA-ի կողմից անցանց վեբկայքերի վրա՝ վտանգավոր հաճախորդների մասին տեղեկություններ փոխանակելու համար: Այս օրինակը ցույց է տալիս առաջարկվող կանոնակարգերի պոտենցիալ ազդեցություններին լայն հայացք նետելու կարևորությունը:
Եթե ԱՄՆ-ի կարգավորիչները միջոցներ ձեռնարկեն՝ միտումնավոր դանդաղեցնելու արհեստական ինտելեկտի առաջընթացը, ապա դա պարզապես կնպաստի ներդրումների և նորարարություններին, և արդյունքում աշխատատեղերի ստեղծմանը, այլուր: Թեև զարգացող AI-ն շատ մտահոգություններ է առաջացնում, այն նաև խոստանում է հսկայական օգուտներ բերել այնպիսի ոլորտներում, ինչպիսիք են հրահանգ , դեղ , արտադրություն , տրանսպորտի անվտանգություն , գյուղատնտեսություն , կանխատեսվող օդերևութաբանական , իրավաբանական ծառայությունների հասանելիություն եւ ավելին.
Կարծում եմ, որ AI կանոնակարգերը, որոնք մշակվել են վերը նշված չորս հարցերը նկատի ունենալով, ավելի հավանական է, որ հաջողությամբ լուծեն AI-ի հնարավոր վնասները՝ միաժամանակ ապահովելով դրա առավելությունների հասանելիությունը:
Այս հոդվածն ազատորեն քաղված է The Conversation-ից, անկախ շահույթ չհետապնդող լրատվական կազմակերպությունից, որը նվիրված է ակադեմիական փորձագետների գիտելիքների փոխանակմանը:
BlogInnovazione.it
Veeam-ի Coveware-ը կշարունակի տրամադրել կիբեր շորթման միջադեպերի արձագանքման ծառայություններ: Coveware-ը կառաջարկի դատաբժշկական և վերականգնման հնարավորություններ…
Կանխատեսելի սպասարկումը հեղափոխություն է անում նավթի և գազի ոլորտում՝ կայանի կառավարման նորարարական և ակտիվ մոտեցմամբ:…
Մեծ Բրիտանիայի CMA-ն նախազգուշացում է տարածել արհեստական ինտելեկտի շուկայում Big Tech-ի վարքագծի վերաբերյալ: Այնտեղ…
Շենքերի էներգաարդյունավետության բարձրացման նպատակով Եվրոպական միության կողմից ձևակերպված «Քեյս Գրին» հրամանագիրը իր օրենսդրական գործընթացն ավարտել է…