अनुमानित पढ़ने का समय: 11 मिनट
से नकली तस्वीरें न्यूयॉर्क शहर के पुलिस अधिकारियों द्वारा गिरफ्तार किए गए डोनाल्ड ट्रम्प के एक चैटबॉट में एक का वर्णन करते हुए कंप्यूटर वैज्ञानिक बहुत अधिक जीवित रूप में दुखद रूप से मर गए , सिस्टम की नई पीढ़ी की क्षमता कृत्रिम बुद्धिमत्ता सम्मोहक लेकिन काल्पनिक पाठ और चित्र बनाने के लिए जनरेटिंग ड्राइव स्टेरॉयड धोखाधड़ी और गलत सूचना के बारे में चेतावनी दे रही है। दरअसल, 29 मार्च, 2023 को एआई शोधकर्ताओं और उद्योग के आंकड़ों के एक समूह ने उद्योग से आग्रह किया कि वह नवीनतम एआई प्रौद्योगिकियों पर आगे के प्रशिक्षण को निलंबित कर दे या, सरकार को "अधिस्थगन" लगाने के लिए रोक दे।
छवि जनरेटर पसंद करते हैं DALL-E , मध्य यात्रा e स्थिर प्रसार और सामग्री जनरेटर जैसे चारण , ChatGPT , चिनचीला e लामा - अब लाखों लोगों के लिए उपलब्ध हैं और उपयोग करने के लिए किसी तकनीकी ज्ञान की आवश्यकता नहीं है।
एआई सिस्टम को तैनात करने और जनता पर उनका परीक्षण करने वाली टेक कंपनियों के सामने आने वाले परिदृश्य को देखते हुए, नीति निर्माताओं को खुद से पूछना चाहिए कि उभरती हुई तकनीक को कैसे और कैसे विनियमित किया जाए। वार्तालाप ने तीन तकनीकी नीति विशेषज्ञों से यह बताने के लिए कहा कि एआई को विनियमित करना इतनी बड़ी चुनौती क्यों है और इसे ठीक करना इतना महत्वपूर्ण क्यों है।
एस. श्याम सुंदर, मल्टीमीडिया प्रभाव के प्रोफेसर और निदेशक, सेंटर फॉर सोशली रेस्पॉन्सिबल एआई, पेन स्टेट
एआई को विनियमित करने का कारण यह नहीं है कि प्रौद्योगिकी नियंत्रण से बाहर है, बल्कि इसलिए कि मानव कल्पना अनुपात से बाहर है। भारी मीडिया कवरेज ने एआई क्षमताओं और चेतना के बारे में तर्कहीन विश्वासों को बढ़ावा दिया है। इन मान्यताओं पर आधारित हैं " स्वचालन पूर्वाग्रह ”या जब मशीनें कोई कार्य करती हैं तो हमारे गार्ड को नीचा दिखाने की प्रवृत्ति पर। एक उदाहरण है पायलटों के बीच कम सतर्कता जब उनका विमान ऑटोपायलट पर उड़ रहा होता है।
मेरी प्रयोगशाला में किए गए कई अध्ययनों से पता चला है कि जब एक इंसान के बजाय एक मशीन को बातचीत के स्रोत के रूप में पहचाना जाता है, तो यह उपयोगकर्ताओं के दिमाग में एक मानसिक शॉर्टकट को ट्रिगर करता है जिसे हम "मशीन ह्यूरिस्टिक्स" कहते हैं। " . यह आशुलिपि यह विश्वास है कि मशीनें सटीक, वस्तुनिष्ठ, निष्पक्ष, अचूक, आदि हैं। यह उपयोगकर्ता के निर्णय को धूमिल करता है और उपयोगकर्ता को मशीनों पर अत्यधिक भरोसा करने का कारण बनता है। हालांकि, एआई की अचूकता के बारे में लोगों का केवल मोहभंग करना ही काफी नहीं है, क्योंकि मानव अवचेतन रूप से प्रवीणता ग्रहण करने के लिए जाना जाता है, भले ही तकनीक इसे वारंट न करे।
शोध से यह भी पता चला है लोग कंप्यूटर को सामाजिक प्राणी मानते हैं जब मशीनें मानवता का मामूली संकेत भी दिखाती हैं, जैसे संवादी भाषा का उपयोग। इन मामलों में, लोग मानवीय संपर्क के सामाजिक नियमों को लागू करते हैं, जैसे शिष्टाचार और पारस्परिकता। इसलिए जब कंप्यूटर संवेदनशील लगते हैं, तो लोग उन पर आंख मूंदकर भरोसा करते हैं। यह सुनिश्चित करने के लिए विनियमन की आवश्यकता है कि एआई उत्पाद इस भरोसे के लायक हों और इसका फायदा न उठाएं।
एआई एक अनूठी चुनौती पेश करता है, क्योंकि पारंपरिक इंजीनियरिंग प्रणालियों के विपरीत, डिजाइनर यह सुनिश्चित नहीं कर सकते कि एआई सिस्टम कैसा प्रदर्शन करेगा। जब एक पारंपरिक ऑटोमोबाइल कारखाने से बाहर निकला, इंजीनियरों को पता था कि यह कैसा प्रदर्शन करने जा रहा है। लेकिन सेल्फ ड्राइविंग कारों, इंजीनियरों के साथ वे कभी निश्चित नहीं हो सकते कि वे नई परिस्थितियों में कैसा व्यवहार करेंगे .
हाल ही में, दुनिया भर के हजारों लोगों ने आश्चर्यचकित किया है कि GPT-4 और DALL-E 2 जैसे बड़े जनरेटिव AI मॉडल उनके सुझावों के जवाब में क्या उत्पादन करते हैं। इन एआई मॉडल को विकसित करने में शामिल कोई भी इंजीनियर आपको यह नहीं बता सका कि मॉडल वास्तव में क्या उत्पादन करेंगे। मामलों को जटिल बनाने के लिए, ये मॉडल बदलते हैं और अधिक से अधिक बातचीत के साथ विकसित होते हैं।
इन सबका मतलब है कि मिसफायर होने की पर्याप्त संभावना है। इसलिए, बहुत कुछ इस बात पर निर्भर करता है कि एआई सिस्टम कैसे लागू किए जाते हैं और मानवीय संवेदनाओं या भलाई को नुकसान पहुँचाए जाने पर सहारा के लिए क्या प्रावधान हैं। एआई एक फ्रीवे की तरह एक बुनियादी ढांचा है। आप इसे सामूहिक रूप से मानवीय व्यवहारों को आकार देने के लिए डिज़ाइन कर सकते हैं, लेकिन आपको दुर्व्यवहारों से निपटने के लिए तंत्र की आवश्यकता होगी, जैसे तेज़ गति, और अप्रत्याशित घटनाएँ, जैसे दुर्घटनाएँ।
एआई डेवलपर्स को सिस्टम के व्यवहार के तरीकों की भविष्यवाणी करने और सामाजिक मानकों और जिम्मेदारियों के संभावित उल्लंघनों का अनुमान लगाने की कोशिश करने में असाधारण रूप से रचनात्मक होने की आवश्यकता होगी। इसका मतलब यह है कि विनियामक या शासन ढांचे की आवश्यकता है जो समय-समय पर ऑडिट और एआई परिणामों और उत्पादों की जांच पर भरोसा करते हैं, हालांकि मेरा मानना है कि इन रूपरेखाओं को यह भी स्वीकार करना चाहिए कि सिस्टम डिजाइनरों को हमेशा घटनाओं के लिए जवाबदेह नहीं ठहराया जा सकता है।
कैसन श्मिट, सार्वजनिक स्वास्थ्य के सहायक प्रोफेसर, टेक्सास ए एंड एम विश्वविद्यालय
कृत्रिम बुद्धिमत्ता को विनियमित करना जटिल है . AI को अच्छे से एडजस्ट करने के लिए सबसे पहले आपको यह करना होगा defiएआई को खत्म करें और एआई के अपेक्षित जोखिमों और लाभों को समझें। Defiकानून के अधीन क्या है इसकी पहचान करने के लिए कानूनी तौर पर एआई दाखिल करना महत्वपूर्ण है। लेकिन एआई प्रौद्योगिकियां अभी भी विकसित हो रही हैं, इसलिए यह कठिन है defiएक ख़त्म करो defiस्थिर कानूनी परिभाषा.
Anche la comprensione dei rischi e dei benefici dell’IA è importante. Una buona regolamentazione dovrebbe massimizzare i benefici pubblici minimizzando i rischi . Tuttavia, le applicazioni AI stanno ancora emergendo, quindi è difficile sapere o prevedere quali potrebbero essere i rischi o i benefici futuri. Questo tipo di incognite rende le tecnologie emergenti come l’IA estremamente विनियमित करना कठिन है पारंपरिक कानूनों और विनियमों के साथ।
विधायक हैं समायोजित करने में अक्सर बहुत धीमी होती है तेजी से बदलते तकनीकी वातावरण के लिए। कोई नए कानून वे जारी किए जाने के समय अप्रचलित हैं या कार्यकारी बनाया. नए कानूनों के बिना, नियामक उन्हें पुराने कानूनों का उपयोग करना होगा सामना करने के लिए नई समस्याएं . कभी-कभी यह होता है कानूनी बाधाएं प्रति सामाजिक लाभ o कानूनी कमियां प्रति हानिकारक व्यवहार .
"कमज़ोर कानून विशिष्ट उल्लंघनों को रोकने के उद्देश्य से पारंपरिक "कठोर कानून" विधायी दृष्टिकोण के विकल्प हैं। सॉफ्ट लॉ दृष्टिकोण में, एक निजी संगठन स्थापित करता है नियम या मानक उद्योग के सदस्यों के लिए। ये पारंपरिक कानून की तुलना में अधिक तेजी से बदल सकते हैं। कि बनाता है नरम कानूनों का वादा उभरती प्रौद्योगिकियों के लिए क्योंकि वे जल्दी से नए अनुप्रयोगों और जोखिमों के अनुकूल हो सकते हैं। हालाँकि, नरम कानूनों का मतलब नरम प्रवर्तन हो सकता है .
मेगन डोएर , जेनिफर वैगनर e io (कैसन श्मिट) हम एक तीसरा तरीका प्रस्तावित करते हैं: विश्वसनीय प्रवर्तन के साथ कॉपीलेफ्ट AI (CAITE) . यह दृष्टिकोण बौद्धिक संपदा में दो बहुत भिन्न अवधारणाओं को जोड़ता है: लाइसेंस copyleft
e patent troll
.
लाइसेंस copyleft
आपको लाइसेंस की शर्तों के तहत सामग्री को आसानी से उपयोग करने, पुन: उपयोग करने या संशोधित करने की अनुमति देता है, जैसे ओपन सोर्स सॉफ़्टवेयर। नमूना CAITE
लाइसेंस का उपयोग करें copyleft
एआई उपयोगकर्ताओं को विशिष्ट नैतिक दिशानिर्देशों का पालन करने की आवश्यकता है, जैसे कि पूर्वाग्रह के प्रभाव का पारदर्शी आकलन।
हमारे मॉडल में, ये लाइसेंस किसी विश्वसनीय तृतीय पक्ष को लाइसेंस उल्लंघनों को लागू करने का कानूनी अधिकार भी हस्तांतरित करते हैं। यह एक प्रवर्तन इकाई बनाता है जो पूरी तरह से एआई नैतिक मानकों को लागू करने के लिए मौजूद है और अनैतिक आचरण के लिए जुर्माना द्वारा आंशिक रूप से वित्त पोषित किया जा सकता है। यह इकाई एक की तरह है patent troll
क्योंकि यह सरकारी होने के बजाय निजी है और दूसरों से प्राप्त कानूनी बौद्धिक संपदा अधिकारों को लागू करके अपना समर्थन करता है। इस मामले में, इकाई लाभ के लिए चलने के बजाय नैतिक दिशानिर्देशों को लागू करती है defiलाइसेंस में रात.
यह मॉडल हमेशा बदलते एआई वातावरण की जरूरतों को पूरा करने के लिए लचीला और अनुकूलनीय है। यह पारंपरिक सरकारी नियामक जैसे पर्याप्त प्रवर्तन विकल्पों की भी अनुमति देता है। इस तरह, यह एआई की अनूठी चुनौतियों का समाधान करने के लिए सख्त और नरम कानून दृष्टिकोण के सर्वोत्तम तत्वों को जोड़ती है।
जॉन विलासेनोर, इलेक्ट्रिकल इंजीनियरिंग, कानून, सार्वजनिक नीति और प्रबंधन के प्रोफेसर, कैलिफोर्निया विश्वविद्यालय, लॉस एंजिल्स
Gli असाधारण हालिया प्रगति बड़ी भाषा में मॉडल-आधारित जनरेटिव एआई नए एआई-विशिष्ट विनियमन बनाने की मांग को बढ़ा रहे हैं। अपने आप से पूछने के लिए यहां चार प्रमुख प्रश्न हैं:
एआई सिस्टम के कई संभावित समस्याग्रस्त परिणामों को पहले से ही मौजूदा ढांचे द्वारा संबोधित किया गया है। यदि किसी बैंक द्वारा ऋण आवेदनों का मूल्यांकन करने के लिए उपयोग किए जाने वाले एआई एल्गोरिदम नस्लीय भेदभावपूर्ण उधार निर्णयों की ओर जाता है, तो यह फेयर हाउसिंग एक्ट का उल्लंघन होगा। यदि चालक रहित कार में एआई सॉफ्टवेयर दुर्घटना का कारण बनता है, तो उत्पाद देयता कानून एक प्रदान करता है उपायों को आगे बढ़ाने के लिए ढांचा .
इसका एक उत्कृष्ट उदाहरण है संग्रहित संचार अधिनियम , जिसे 1986 में तत्कालीन नवीन डिजिटल संचार तकनीकों जैसे ईमेल को संबोधित करने के लिए अधिनियमित किया गया था। SCA को लागू करने में, कांग्रेस ने 180 दिनों से अधिक पुराने ईमेल के लिए काफी कम गोपनीयता सुरक्षा प्रदान की।
तर्क यह था कि सीमित भंडारण का मतलब था कि लोग नए संदेशों के लिए जगह बनाने के लिए पुराने संदेशों को हटाकर अपने इनबॉक्स को लगातार साफ कर रहे थे। परिणामस्वरूप, 180 दिनों से अधिक समय तक संग्रहीत संदेशों को गोपनीयता के दृष्टिकोण से कम महत्वपूर्ण माना गया। यह स्पष्ट नहीं है कि क्या यह तर्क कभी समझ में आया, और यह निश्चित रूप से 20 के दशक में समझ में नहीं आता है, जब हमारे अधिकांश ईमेल और अन्य संग्रहीत डिजिटल संचार छह महीने से अधिक पुराने हैं।
समय के साथ एकल स्नैपशॉट के आधार पर प्रौद्योगिकी को विनियमित करने के बारे में चिंताओं की एक सामान्य प्रतिक्रिया यह है: यदि कोई कानून या विनियमन अप्रचलित हो जाता है, तो उसे अपडेट करें। करने से कहना आसान है। ज्यादातर लोग इस बात से सहमत हैं कि एससीए दशकों पहले अप्रचलित हो गया था। लेकिन क्योंकि कांग्रेस 180 दिनों के प्रावधान को संशोधित करने के तरीके पर विशेष रूप से सहमत नहीं हो पाई थी, यह अधिनियमित होने के बाद भी एक सदी के एक तिहाई से अधिक पुस्तकों पर है।
Il 2017 के ऑनलाइन सेक्स ट्रैफिकिंग अधिनियम से लड़ने के लिए राज्यों और पीड़ितों को अनुमति दें यह 2018 में पारित एक कानून था जिसे उन्होंने संशोधित किया धारा 230 यौन तस्करी का मुकाबला करने के उद्देश्य से संचार शालीनता अधिनियम। जबकि इस बात के बहुत कम सबूत हैं कि उसने यौन तस्करी को कम किया है, उसके पास एक है अत्यंत समस्याग्रस्त प्रभाव लोगों के एक अलग समूह पर: यौनकर्मी जो खतरनाक ग्राहकों के बारे में जानकारी का आदान-प्रदान करने के लिए FOSTA-SESTA द्वारा ऑफ़लाइन ली गई वेबसाइटों पर निर्भर थे। यह उदाहरण प्रस्तावित विनियमों के संभावित प्रभावों पर व्यापक नज़र डालने के महत्व को दर्शाता है।
यदि अमेरिका में नियामक एआई में जानबूझकर धीमी प्रगति के लिए कार्रवाई करते हैं, तो यह कहीं और निवेश और नवाचार को बढ़ावा देगा - और इसके परिणामस्वरूप रोजगार सृजन होगा। जबकि उभरती एआई कई चिंताओं को उठाती है, यह इस तरह के क्षेत्रों में भारी लाभ लाने का भी वादा करती है शिक्षा , दवा , उत्पादन , परिवहन सुरक्षा , कृषि , प्रीविजनी मौसम विज्ञान , कानूनी सेवाओं तक पहुंच और अधिक।
मेरा मानना है कि उपरोक्त चार सवालों को ध्यान में रखते हुए तैयार किए गए एआई नियमों से एआई के लाभों तक पहुंच सुनिश्चित करते हुए इसके संभावित नुकसान को सफलतापूर्वक संबोधित करने की अधिक संभावना होगी।
यह लेख अकादमिक विशेषज्ञों के ज्ञान को साझा करने के लिए समर्पित एक स्वतंत्र गैर-लाभकारी समाचार संगठन द कन्वर्सेशन से स्वतंत्र रूप से लिया गया है।
BlogInnovazione.it
रंग भरने के माध्यम से बढ़िया मोटर कौशल विकसित करना बच्चों को लेखन जैसे अधिक जटिल कौशल के लिए तैयार करता है। रंग भरना…
नौसैनिक क्षेत्र एक सच्ची वैश्विक आर्थिक शक्ति है, जो 150 अरब के बाज़ार की ओर बढ़ चुका है...
पिछले सोमवार को, फाइनेंशियल टाइम्स ने OpenAI के साथ एक समझौते की घोषणा की। एफटी अपनी विश्व स्तरीय पत्रकारिता को लाइसेंस देता है...
लाखों लोग स्ट्रीमिंग सेवाओं के लिए मासिक सदस्यता शुल्क का भुगतान करते हैं। यह आम राय है कि आप...