ماڻهن جي حقن ۽ ذاتي ڊيٽا سان تعلق رکندڙ ٿلهي مسئلن کي حل ڪرڻ لاءِ ڌيان، صلاحيت ۽ اسان جي وقت جي دانشورن ۽ ماهرن جي وچ ۾ هڪ لازمي بحث جي ضرورت آهي. اسان دريافت ڪري رهيا آهيون ته اسان سماجي قاعدن کي چئلينج ڪرڻ ۾ ڪافي جلدي نه آهيون جيڪي ٽيڪنالاجي جدت اسان کي پيش ڪن ٿا. اڀرندڙ ٽيڪنالاجيون وڌ ۾ وڌ پنهنجو پاڻ کي کليل ميدان ۾ ڪم ڪنديون آهن، ضابطن جي مڪمل غير موجودگيءَ ۾ جيڪي انهن جي درخواست کي محدود ڪن ٿيون، نقصان پهچائڻ لاءِ آزاد آهن ۽ ان ڪري مڪمل معافي سان ائين ڪرڻ.
ڇا اهو تصور ڪرڻ ممڪن آهي هڪ ڪنٽرول جيڪو ٽيڪنالاجي ترقي جي زنجير کي سائنسي تحقيق ۽ ان جي اسٽريٽجڪ مقصدن ڏانهن واپس وٺي وڃي؟
ڇا انفرادي آزادين لاءِ مضبوط احترام برقرار رکندي اسان جي نسلن جي ارتقا کي سنڀالڻ ممڪن آهي؟
"وڌيڪ توهان لڪائڻ جي ڪوشش ڪندا، وڌيڪ توهان کي ڌيان ڇڪايو. اهو ايترو ضروري ڇو آهي ته ڪنهن کي توهان جي باري ۾ خبر ناهي؟ - فلم ”انون“ مان لکيل ۽ هدايتڪار اينڊريو نڪول پاران - 2018
فلم ۾ "جنو ۽ ماڻھؤ2018 جو، مستقبل جو سماج هڪ اونداهي جڳهه آهي، جيڪو ايٿر نالي هڪ وڏي ڪمپيوٽر سسٽم جي سڌي ڪنٽرول هيٺ آهي، جيڪو قوم جي هر ڪنڊ کي مانيٽر ڪرڻ جي قابل آهي، ان کي انهن ئي ماڻهن جي اکين جي ذريعي مشاهدو ڪري ٿو جيڪو ان کي آباد ڪري ٿو. هر انسان Ether جي طرفان هڪ نگران آهي ۽ انهن جي پهرين ذميواري آهي، يقينا، پاڻ کي ۽ انهن جي رويي جي نگراني ڪرڻ.
Ether پوليس قوتن جو بهترين اتحادي آهي: Ether ذريعي، ايجنٽ ڪنهن به شخص جي تجربي کي ڳولي سگهن ٿا ان کي پنهنجي اکين سان بحال ڪندي ۽ ڪنهن به قسم جي ڏوهن کي حل ڪندي.
پوليس آفيسر سال حيران ٿي ويو ته توهان کي پنهنجي پرائيويسي جي حفاظت لاءِ ڇو وڙهڻ گهرجي: جڏهن توهان وٽ لڪائڻ جو ڪو سبب ناهي ته ڇا ٿيو؟ آخرڪار، هڪ دور ۾ جنهن ۾ ٽيڪنالاجيون جيڪي اسان ٺاهيندا آهيون اسان جي گهرن ۽ گهٽين جي حفاظت کي وڌائڻ لاءِ اهڙي معلومات جي رڪارڊنگ، نگراني ۽ تصديق جي ضرورت آهي انهن ماڻهن جي مفاد ۾ جيڪي پاڻ تحفظ لاءِ پڇن ٿا، اسان ڪيئن ضمانت جي اميد ڪري سگهون ٿا. انهن جي رازداري؟
اهو ظاهر ڪرڻ لاءِ ته ٻين جي زندگين تائين رسائي ڪيتري خطرناڪ آهي، هڪ هيڪر ايٿر تي ڪنٽرول ڪري وٺندو ۽ لکين ماڻهن جي زندگين تي هڪ خوفناڪ خواب نازل ٿيندو: لاچار تماشائن وانگر ڏسڻ جو خطرو سڀ کان وڌيڪ تصويرون. انهن جي زندگيءَ جا ڏکايل لمحا، سڌو سنئون انهن جي ريٽنا ۾ نشر ٿين ٿا.
Le مصنوعي اعصابي نيٽ ورڪ جيڪو جديد مصنوعي ذهانت جي ڪم کي هيٺ رکي ٿو، ٽن مکيه عنصرن جي چوڌاري ڦري ٿو: بنيادي معلومات ٻي صورت ۾ corpus، گڏيل قومن جي الورورٿيم معلومات جي ضم ٿيڻ لاءِ ۽ الف ياداشت انهن جي يادگيري لاء.
الورورٿم ميموري ۾ معلومات جي عام لوڊشيڊنگ تائين محدود ناهي، اهو ان کي اسڪين ڪري ٿو ان عناصر جي ڳولا ۾ جيڪي انهن جو هڪ ٻئي سان تعلق رکن ٿا. ڊيٽا ۽ رشتن جو هڪ ميلاپ ميموري ڏانهن منتقل ڪيو ويندو جيڪو هڪ ٺاهيندو ماڊليلو.
هڪ ماڊل جي اندر، ڊيٽا ۽ رشتا مڪمل طور تي الڳ نه هوندا آهن، اهو ئي سبب آهي ته هڪ تربيتي نيورل نيٽ ورڪ مان اصل تربيتي معلومات جي ڪورپس کي بحال ڪرڻ تقريبا ناممڪن آهي.
اهو خاص طور تي صحيح آهي جڏهن ڪورپس ڊيٽا جي وڏي مقدار تي مشتمل آهي. اهو معاملو وڏي لساني نظام جي نالي سان مشهور آهي Large Language Models (مختصر لاءِ LLM) سميت بدنام ChatGpt. انهن جي تاثير کي ٽريننگ ۾ استعمال ٿيندڙ معلومات جي وڏي مقدار تي واجب آهي: في الحال سٺي تربيت لاءِ گهٽ ۾ گهٽ چند ٽيرا بائيٽ ڊيٽا جي ضرورت آهي ۽ ڏنو وڃي ٿو ته هڪ ٽيرابائيٽ 90 بلين اکرن سان ملندو آهي، متن جي تقريبن 75 ملين صفحن تي، اهو سمجهڻ آسان آهي ته اتي موجود آهي. تمام گهڻي معلومات جي ضرورت آهي.
پر جيڪڏهن ماڊل ڊي-انجنيئر نٿا ٿي سگهن، اسان کي پاڻ کان رازداري جي ڀڃڪڙي جو مسئلو ڇو پڇڻ گهرجي؟
”جيڪو به چريو آهي اهو پڇي سگهي ٿو پرواز جي مشنن کان استثنيٰ حاصل ڪرڻ لاءِ ، پر جيڪو به پڇي ٿو ته فلائيٽ مشنن کان استثنيٰ حاصل ڪيو وڃي اهو چريو ناهي. - جوزف هيلر جي ناول ”ڪيچ 22“ تي ٻڌل آهي.
اهڙي سائيز جي ڊيٽا گڏ ڪرڻ جيئن ته ChatGpt يا ٻيا اهڙا پراجيڪٽ ٺاهڻ جي اجازت ڏيڻ اڄ وڏين ملٽي نيشنل ڪمپنين جو اختيار آهي، جيڪي پنهنجي ڊجيٽل سرگرمين سان، معلومات جي سڀ کان وڏي ذخيري تي پنهنجا هٿ حاصل ڪرڻ جي قابل ٿي ويا آهن. دنيا ۾: ويب.
گوگل ۽ مائڪروسافٽ، جن سالن کان سرچ انجڻ جو انتظام ڪيو آهي جيڪي ويب کي اسڪين ڪن ٿا ۽ معلومات جي وڏي مقدار ۾ اضافو ڪن ٿا، ايل ايل ايم جي تخليق جا پهريان اميدوار آهن، صرف AI ماڊلز آهن جيڪي معلومات جي مقدار کي هضم ڪرڻ جي قابل آهن جيئن مٿي بيان ڪيل آهن.
اهو يقين ڪرڻ ڏکيو آهي ته گوگل يا مائڪروسافٽ انهن جي ڊيٽا ۾ ذاتي معلومات کي لڪائڻ جي قابل هوندا ان کان اڳ ان کي استعمال ڪرڻ کان اڳ هڪ ڪورپس جي طور تي هڪ نيرل نيٽ ورڪ جي تربيت ۾. لساني سسٽم جي صورت ۾ گمنام معلومات هڪ ڪورپس اندر ذاتي ڊيٽا جي سڃاڻپ ۾ ترجمو ڪري ٿو ۽ ان کي جعلي ڊيٽا سان متبادل بڻايو وڃي ٿو. اچو ته تصور ڪريون ڪجھ ٽيرا بائيٽ جي ماپ جو ھڪڙو ڪارپس جنھن سان اسان ھڪڙي ماڊل کي تربيت ڏيڻ چاھيون ٿا ۽ اچو ته تصور ڪرڻ جي ڪوشش ڪريون ته ان ۾ موجود ڊيٽا کي دستي طور گمنام ڪرڻ لاءِ ڪيترو ڪم ڪرڻو پوندو: اھو عملي طور ناممڪن ھوندو. پر جيڪڏهن اسان ان کي خود بخود ڪرڻ لاءِ هڪ الگورٿم تي ڀروسو ڪرڻ چاهيون ٿا، اهو ڪم ڪرڻ جي قابل واحد سسٽم هڪ ٻيو هڪ جيترو وڏو ۽ نفيس ماڊل هوندو.
اسان هڪ کلاسک ڪيچ-22 مسئلي جي موجودگي ۾ آهيون: ”گمنام ٿيل ڊيٽا سان ايل ايل ايم کي تربيت ڏيڻ لاءِ اسان کي هڪ ايل ايل ايم جي ضرورت آهي جيڪو ان کي گمنام ڪرڻ جي قابل هجي، پر جيڪڏهن اسان وٽ هڪ ايل ايل ايم آهي جيڪو ڊيٽا کي گمنام ڪرڻ جي قابل آهي، ان جي تربيت گمنام ڊيٽا سان نه ڪئي وئي هئي. .“
جي ڊي پي آر جيڪو ترتيب ڏئي ٿو (تقريبا) عالمي سطح تي ماڻهن جي رازداري جي احترام لاءِ ضابطا، انهن عنوانن جي روشني ۾ اڳ ۾ ئي پراڻي خبر آهي ۽ ٽريننگ سيٽ ۾ شامل ذاتي ڊيٽا جي تحفظ تي غور نه ڪيو ويو آهي.
GDPR ۾، پروسيسنگ ذاتي ڊيٽا کي سکڻ جي مقصد لاءِ عام لاڳاپن ۽ ڪنيڪشنن کي صرف جزوي طور آرٽيڪل 22 پاران ضابطو ڪيو ويو آهي جنهن ۾ چيو ويو آهي: “ڊيٽا جي مضمون کي اهو حق حاصل ناهي ته ڪنهن فيصلي جي تابع نه ڪيو وڃي مڪمل طور تي خودڪار پروسيسنگ جي بنياد تي، بشمول پروفائلنگ، جنهن هن تي قانوني اثر پيدا ڪري ٿو يا جيڪو هن کي ساڳئي ۽ اهم طريقي سان متاثر ڪري ٿو.
هي آرٽيڪل مڪمل طور تي خودڪار فيصلي سازي جي عمل جي حصي طور هڪ مضمون جي ذاتي ڊيٽا کي استعمال ڪرڻ لاء ڊيٽا ڪنٽرولرز لاء ممنوع متعارف ڪرايو آهي جيڪو موضوع تي سڌو قانوني اثر آهي. پر نيورل نيٽ ورڪ، آساني سان پاڻمرادو فيصلا ڪرڻ واري عمل سان ملائي، هڪ ڀيرو تربيت حاصل ڪري پاڻمرادو فيصلا ڪرڻ جي صلاحيت حاصل ڪري ٿو جيڪي ماڻهن جي زندگين کي متاثر ڪري سگهن ٿا. پر اهي فيصلا هميشه ”منطقي“ نه هوندا آهن. ٽريننگ دوران، حقيقت ۾، هر نيورل نيٽ ورڪ هڪ ٻئي سان معلومات کي ڳنڍڻ سکندو آهي، اڪثر ڪري انهن کي هڪ ٻئي سان لاڳاپو بلڪل غير لڪير انداز ۾. ۽ "منطق" جي غير موجودگي ان قانون ساز لاءِ ڪم کي آسان نٿو بڻائي جيڪو ماڻهن جي رازداري جي حفاظت ۾ ڍال بلند ڪرڻ چاهي ٿو.
جيڪڏهن ڪو هڪ انتهائي پابندي واري پاليسي لاڳو ڪرڻ جو پڻ انتخاب ڪيو آهي، مثال طور ڪنهن به حساس ڊيٽا جي استعمال کي منع ڪرڻ جيستائين مالڪ طرفان واضح طور تي اجازت نه ڏني وڃي، نيورل نيٽ ورڪ جو قانوني استعمال ناقابل عمل هوندو. ۽ نيورل نيٽ ورڪ ٽيڪنالاجيز کي ڇڏي ڏيڻ هڪ وڏو نقصان ٿيندو، صرف هڪ آبادي جي مضمونن جي ڪلينڪل ڊيٽا سان تربيت ڪيل تجزياتي ماڊل جي باري ۾ سوچيو جيڪو جزوي طور تي ڪنهن خاص بيماري کان متاثر ٿيو آهي. اهي ماڊل روڪٿام جي پاليسين کي بهتر بڻائڻ ۾ مدد ڪن ٿيون ڊيٽا ۾ موجود عنصرن جي وچ ۾ لاڳاپن جي نشاندهي ڪندي ۽ بيماري پاڻ، غير متوقع لاڳاپا جيڪي ڪلينڪ جي نظر ۾ مڪمل طور تي غير منطقي ظاهر ٿي سگهن ٿيون.
ماڻهن جي پرائيويسي جو احترام ڪرڻ جو مسئلو پيدا ڪرڻ کان پوءِ سالن تائين ان جي جمع ڪرڻ کي بي انتها اختيار ڏيڻ کان گهٽ ۾ گهٽ چوڻ منافقت آهي. GDPR خود ان جي پيچيدگي سان گڏ ڪيترن ئي ڌانڌلي لاء ذميوار آهي جيڪي ذاتي ڊيٽا کي پروسيس ڪرڻ جي اجازت حاصل ڪرڻ جي اجازت ڏين ٿا شقن جي ابهام ۽ سمجھڻ جي مشڪل کي استحصال ڪندي.
اسان کي يقيني طور تي قانون جي سادگي جي ضرورت آهي جيڪا ان جي قابل اطلاق ۽ ذاتي معلومات جي شعوري استعمال ۾ حقيقي تعليم جي اجازت ڏئي ٿي.
منهنجو تجويز اهو آهي ته ڪمپنين کي اجازت نه ڏيو ته انهن صارفين جي ذاتي ڊيٽا کي ڄاڻڻ لاء جيڪي انهن جي خدمتن لاء رجسٽرڊ ڪن ٿا، جيتوڻيڪ اهي ادا ڪيل خدمتون آهن. نجي ماڻهن پاران جعلي ذاتي ڊيٽا جو استعمال خودڪار ٿيڻ گهرجي جڏهن اهي آن لائن سسٽم استعمال ڪن ٿا. حقيقي ڊيٽا جو استعمال صرف خريداري جي عمل تائين محدود هجڻ گهرجي، انهي کي يقيني بڻائڻ ته اهو هميشه خدمت ڊيٽابيس کان مڪمل طور تي الڳ آهي.
موضوع جي ذوق ۽ ترجيحن کي ڄاڻڻ بغير ڪنهن نالو يا چهري کي هن پروفائل سان وابسته ڪرڻ جي اجازت ڏيڻ جي طور تي ڪم ڪندو گمنامي جي هڪ شڪل طور اپ اسٽريم ڪيو ويو جيڪو خودڪار طريقي سان ڊيٽا گڏ ڪرڻ ۽ انهن جي استعمال جي اجازت ڏيندو آٽوميشن سسٽم ۾ جيئن مصنوعي ذهانت.
جو مضمون Gianfranco Fedele
رنگ سازي ذريعي سٺي موٽر صلاحيتن کي ترقي ڪرڻ ٻارن کي وڌيڪ پيچيده صلاحيتن لاء تيار ڪري ٿو جهڙوڪ لکڻ. رنگ ڏيڻ…
بحري شعبي هڪ حقيقي عالمي معاشي طاقت آهي، جيڪا 150 بلين مارڪيٽ جي طرف نيويگيٽ ڪئي آهي ...
گذريل سومر، فنانشل ٽائمز OpenAI سان هڪ ڊيل جو اعلان ڪيو. ايف ٽي پنهنجي عالمي سطح جي صحافت کي لائسنس ڏئي ٿو ...
لکين ماڻهو ادا ڪن ٿا اسٽريمنگ سروسز لاءِ، ادا ڪندا مھينا سبسڪرپشن فيس. اها عام راءِ آهي ته توهان…