مضامین

پرائیویسی لوپ: پرائیویسی اور کاپی رائٹ کی بھولبلییا میں مصنوعی ذہانت

یہ دو مضامین میں سے پہلا مضمون ہے جس میں میں ایک طرف پرائیویسی اور کاپی رائٹ اور دوسری طرف مصنوعی ذہانت کے درمیان نازک رشتے پر بات کرتا ہوں۔

ایک مشکل رشتہ جہاں تکنیکی ارتقاء اس قدر تیز ثابت ہو رہا ہے کہ کسی بھی ریگولیٹری ایڈجسٹمنٹ کو اس کے پہلے اطلاق سے ہی متروک کر دیا جائے۔

لوگوں کے حقوق اور ذاتی ڈیٹا سے متعلق کانٹے دار مسائل کو حل کرنے کے لیے توجہ، قابلیت اور ہمارے دور کے دانشوروں اور ماہرین کے درمیان ایک ناگزیر بحث کی ضرورت ہے۔ ہم دریافت کر رہے ہیں کہ ہم سماجی قوانین کو ان چیلنجوں کے مطابق ڈھالنے میں اتنی جلدی نہیں ہیں جو تکنیکی اختراعات ہمارے سامنے لاتی ہیں۔ ابھرتی ہوئی ٹیکنالوجیز اپنے آپ کو کھلے میدان میں تیزی سے کام کرتی نظر آتی ہیں، ان ضوابط کی مکمل عدم موجودگی میں جو ان کے اطلاق کو محدود کرتے ہیں، نقصان پہنچانے کے لیے آزاد ہیں اور اس لیے مکمل استثنیٰ کے ساتھ ایسا کرنا ہے۔

کیا کسی ایسے کنٹرول کا تصور کرنا ممکن ہے جو سائنسی تحقیق اور اس کے اسٹریٹجک مقاصد کے لیے تکنیکی ترقی کے سلسلے کو واپس لے جائے؟

کیا انفرادی آزادیوں کے لیے مضبوط احترام کو برقرار رکھتے ہوئے ہماری نسلوں کے ارتقاء پر حکومت کرنا قابل فہم ہے؟

رازداری؟

"آپ جتنا زیادہ چھپانے کی کوشش کریں گے، اتنا ہی زیادہ آپ کی توجہ مبذول کرو گے۔ یہ اتنا اہم کیوں ہے کہ کوئی آپ کے بارے میں نہیں جانتا؟ - اینڈریو نکول کی طرف سے لکھی اور ہدایت کاری کی فلم "اونون" سے - 2018

فلم میں "Anon2018 کا، مستقبل کا معاشرہ ایک تاریک جگہ ہے، جو ایتھر نامی ایک بہت بڑے کمپیوٹر سسٹم کے براہ راست کنٹرول میں ہے، جو قوم کے ہر کونے کو انہی لوگوں کی آنکھوں سے دیکھ کر اس کی نگرانی کرنے کی صلاحیت رکھتا ہے جو اسے آباد کرتے ہیں۔ ہر انسان ایتھر کی طرف سے نگران ہے اور یقیناً ان کی پہلی ذمہ داری ہے کہ وہ اپنے آپ اور اپنے رویے کی نگرانی کریں۔

ایتھر پولیس فورسز کا بہترین اتحادی ہے: ایتھر کے ذریعے، ایجنٹ کسی بھی شخص کے تجربے کو اپنی آنکھوں سے دوبارہ زندہ کر کے اور کسی بھی قسم کے جرم کو حل کر سکتے ہیں۔

پولیس افسر سال حیران ہے کہ آپ کو اپنی پرائیویسی کے تحفظ کے لیے کیوں لڑنا چاہیے: جب آپ کے پاس چھپانے کی کوئی وجہ نہ ہو تو کیا فائدہ؟ بہر حال، ایک ایسے دور میں جس میں ہم اپنے گھروں اور گلیوں کی حفاظت کو بڑھانے کے لیے جو ٹیکنالوجیز بناتے ہیں ان کے لیے ایسی معلومات کی ریکارڈنگ، نگرانی اور تصدیق کی ضرورت ہوتی ہے جو خود ان لوگوں کے مفاد میں ہیں جو تحفظ کا مطالبہ کرتے ہیں، ہم ضمانت کی توقع کیسے کر سکتے ہیں؟ ان کی رازداری؟

یہ ظاہر کرنے کے لیے کہ دوسروں کی زندگیوں تک رسائی حاصل کرنا کتنا خطرناک ہے، ایک ہیکر ایتھر کا کنٹرول سنبھال لے گا اور لاکھوں لوگوں کی زندگیوں پر ایک خوفناک خواب آ جائے گا: بے بس تماشائی بن کر دیکھنے کا خطرہ ان کی زندگی کے اذیت ناک لمحات، براہ راست ان کے ریٹنا میں نشر ہوتے ہیں۔

لوپ

Le مصنوعی اعصابی نیٹ ورک جو کہ جدید مصنوعی ذہانت کے کام کاج پر ہے، تین اہم عناصر کے گرد گھومتی ہے: بنیادی معلومات بصورت دیگر کارپس، ایک یلگورتم معلومات کے انضمام کے لیے اور ایک میموری ان کے حافظے کے لیے۔

الگورتھم میموری میں معلومات کی عام لوڈنگ تک محدود نہیں ہے، یہ ان عناصر کی تلاش میں اسکین کرتا ہے جو ان کا ایک دوسرے سے تعلق رکھتے ہیں۔ ڈیٹا اور رشتوں کا ایک مرکب میموری میں منتقل کیا جائے گا جو ایک تشکیل دے گا۔ موڈلو.

ایک ماڈل کے اندر، ڈیٹا اور تعلقات مکمل طور پر الگ نہیں ہوتے، یہی وجہ ہے کہ تربیت یافتہ عصبی نیٹ ورک سے اصل تربیتی معلومات کے کارپس کی تشکیل نو تقریباً ناممکن ہے۔

یہ خاص طور پر سچ ہے جب کارپس میں بڑی مقدار میں ڈیٹا ہوتا ہے۔ یہ بڑے لسانی نظاموں کا معاملہ ہے جسے کہا جاتا ہے۔ Large Language Models (مختصر کے لیے LLM) بشمول بدنام زمانہ ChatGpt۔ وہ تربیت میں استعمال ہونے والی معلومات کی بڑی مقدار پر اپنی تاثیر کا مرہون منت ہیں: فی الحال اچھی تربیت کے لیے کم از کم چند ٹیرا بائٹ ڈیٹا کی ضرورت ہوتی ہے اور یہ دیکھتے ہوئے کہ ایک ٹیرا بائٹ 90 بلین حروف، تقریباً 75 ملین صفحات کے متن کے مساوی ہے، یہ سمجھنا آسان ہے۔ اتنی معلومات کی ضرورت ہے.

لیکن اگر ماڈلز کو ڈی-انجینئر نہیں کیا جا سکتا، تو ہم خود سے رازداری کی خلاف ورزیوں کا مسئلہ کیوں پوچھیں؟

ڈیٹا کا غلبہ

"جو بھی پاگل ہے وہ فلائٹ مشن سے مستثنیٰ ہونے کے لئے کہہ سکتا ہے، لیکن جو بھی پرواز کے مشن سے مستثنیٰ ہونے کا کہتا ہے وہ پاگل نہیں ہے۔" - جوزف ہیلر کے ناول "کیچ 22" پر مبنی۔

انوویشن نیوز لیٹر
جدت پر سب سے اہم خبروں کو مت چھوڑیں۔ ای میل کے ذریعے انہیں وصول کرنے کے لیے سائن اپ کریں۔

ChatGpt یا اس سے ملتے جلتے دوسرے پروجیکٹس کی تخلیق کی اجازت دینے کے لیے اس سائز کے ڈیٹا کو جمع کرنا آج بڑی ملٹی نیشنل کمپنیوں کا اختیار ہے جو اپنی ڈیجیٹل سرگرمیوں کے ساتھ، معلومات کے سب سے بڑے ذخیرے پر ہاتھ اٹھانے میں کامیاب ہوئی ہیں۔ دنیا میں: ویب۔

گوگل اور مائیکروسافٹ، جنہوں نے برسوں سے ایسے سرچ انجنوں کا انتظام کیا ہے جو ویب کو اسکین کرتے ہیں اور بہت زیادہ معلومات کو اکٹھا کرتے ہیں، LLM کی تخلیق کے پہلے امیدوار ہیں، صرف AI ماڈلز جو کہ اوپر بیان کی گئی معلومات کی مقدار کو ہضم کرنے کے قابل ہیں۔

اس بات پر یقین کرنا مشکل ہے کہ گوگل یا مائیکروسافٹ اپنے ڈیٹا میں ذاتی معلومات کو عصبی نیٹ ورک کی تربیت کے لیے کارپس کے طور پر استعمال کرنے سے پہلے اس قابل ہو جائیں گے۔ لسانی نظام کے معاملے میں معلومات کو گمنام کرنے کا ترجمہ کارپس کے اندر ذاتی ڈیٹا کی شناخت اور اس کی جگہ جعلی ڈیٹا سے ہوتا ہے۔ آئیے کچھ ٹیرا بائٹس کے سائز کے کارپس کا تصور کریں جس کے ساتھ ہم ایک ماڈل کو تربیت دینا چاہتے ہیں اور آئیے یہ تصور کرنے کی کوشش کریں کہ اس میں موجود ڈیٹا کو دستی طور پر گمنام کرنے کے لیے کتنا کام کرنا ہوگا: یہ عملی طور پر ناممکن ہوگا۔ لیکن اگر ہم اسے خود بخود کرنے کے لیے الگورتھم پر انحصار کرنا چاہتے ہیں، تو یہ کام کرنے کے قابل واحد نظام ایک اور اتنا ہی بڑا اور نفیس ماڈل ہوگا۔

ہم ایک کلاسک Catch-22 مسئلہ کی موجودگی میں ہیں: "ایک LLM کو گمنام ڈیٹا کے ساتھ تربیت دینے کے لیے ہمیں ایک LLM کی ضرورت ہے جو اسے گمنام کرنے کے قابل ہو، لیکن اگر ہمارے پاس ڈیٹا کو گمنام کرنے کے قابل LLM ہے، تو اس کی تربیت گمنام ڈیٹا کے ساتھ نہیں کی گئی تھی۔ .

GDPR متروک ہے۔

جی ڈی پی آر جو عالمی سطح پر لوگوں کی پرائیویسی کا احترام کرنے کے قوانین کا حکم دیتا ہے، ان موضوعات کی روشنی میں پہلے سے ہی پرانی خبریں ہیں اور تربیتی سیٹ میں شامل ذاتی ڈیٹا کے تحفظ پر غور نہیں کیا جاتا۔

جی ڈی پی آر میں، عمومی ارتباط اور روابط کو سیکھنے کے مقصد کے لیے ذاتی ڈیٹا کی پروسیسنگ کو آرٹیکل 22 کے ذریعے صرف جزوی طور پر ریگولیٹ کیا جاتا ہے جس میں کہا گیا ہے: "ڈیٹا کے موضوع کو مکمل طور پر خودکار پروسیسنگ، بشمول پروفائلنگ، پر مبنی فیصلے کے تابع نہ ہونے کا حق حاصل ہے۔ اس پر قانونی اثرات پیدا کرتا ہے یا جو اس پر اسی طرح کے اور اہم طریقے سے اثر انداز ہوتا ہے۔"

یہ مضمون ڈیٹا کنٹرولرز کے لیے کسی موضوع کے ذاتی ڈیٹا کو مکمل طور پر خودکار فیصلہ سازی کے عمل کے حصے کے طور پر استعمال کرنے کی ممانعت کو متعارف کرایا گیا ہے جس کے موضوع پر براہ راست قانونی اثرات مرتب ہوتے ہیں۔ لیکن عصبی نیٹ ورکس، جو خود کار فیصلہ سازی کے عمل میں آسانی سے مل جاتے ہیں، ایک بار تربیت حاصل کرنے کے بعد خودکار فیصلے کرنے کی صلاحیت حاصل کر لیتے ہیں جو لوگوں کی زندگیوں کو متاثر کر سکتے ہیں۔ لیکن یہ فیصلے ہمیشہ "منطقی" نہیں ہوتے۔ تربیت کے دوران، درحقیقت، ہر نیورل نیٹ ورک ایک دوسرے کے ساتھ معلومات کو جوڑنا سیکھتا ہے، اکثر انہیں بالکل غیر لکیری انداز میں ایک دوسرے سے جوڑتا ہے۔ اور "منطق" کی عدم موجودگی اس قانون ساز کے لیے کام آسان نہیں بناتی جو لوگوں کی پرائیویسی کے دفاع میں ڈھال بنانا چاہتا ہے۔

اگر کسی نے بھی انتہائی پابندی والی پالیسی کو لاگو کرنے کا انتخاب کیا، مثال کے طور پر کسی بھی حساس ڈیٹا کے استعمال پر پابندی لگانا جب تک کہ مالک کی طرف سے واضح طور پر اجازت نہ دی جائے، نیورل نیٹ ورکس کا قانونی استعمال ناقابل عمل ہوگا۔ اور نیورل نیٹ ورک ٹیکنالوجیز کو ترک کر دینا ایک بڑا نقصان ہو گا، ذرا سوچیں کہ کسی ایسی آبادی کے مضامین کے کلینیکل ڈیٹا کے ساتھ تربیت یافتہ تجزیہ ماڈلز جو کسی خاص بیماری سے جزوی طور پر متاثر ہوئی ہیں۔ یہ ماڈل اعداد و شمار میں موجود عناصر اور خود بیماری کے درمیان ارتباط کی نشاندہی کرکے روک تھام کی پالیسیوں کو بہتر بنانے میں مدد کرتے ہیں، غیر متوقع ارتباط جو کہ معالجین کی نظر میں مکمل طور پر غیر منطقی لگ سکتے ہیں۔

ضروریات کا انتظام کرنا

سالوں تک اندھا دھند اس کے جمع کرنے کی اجازت دینے کے بعد لوگوں کی رازداری کا احترام کرنے کا مسئلہ پیش کرنا کم از کم کہنا منافقانہ ہے۔ GDPR خود اپنی پیچیدگی کے ساتھ متعدد ہیرا پھیری کے لیے ذمہ دار ہے جو شقوں کی ابہام اور سمجھنے کی دشواری کا فائدہ اٹھا کر ذاتی ڈیٹا پر کارروائی کرنے کی اجازت حاصل کرنے کی اجازت دیتا ہے۔

ہمیں یقینی طور پر اس قانون کو آسان بنانے کی ضرورت ہے جو اس کے لاگو ہونے اور ذاتی معلومات کے شعوری استعمال میں حقیقی تعلیم فراہم کرے۔

میری تجویز یہ ہے کہ کمپنیوں کو ان صارفین کا ذاتی ڈیٹا جاننے کی اجازت نہ دی جائے جو اپنی خدمات کے لیے رجسٹر ہوتے ہیں، چاہے وہ ادا شدہ خدمات ہی کیوں نہ ہوں۔ پرائیویٹ افراد کے ذریعے جعلی ذاتی ڈیٹا کا استعمال خود بخود اس وقت ہونا چاہیے جب وہ آن لائن سسٹم استعمال کریں۔ حقیقی ڈیٹا کا استعمال صرف خریداری کے عمل تک ہی محدود ہونا چاہیے، اس بات کو یقینی بناتے ہوئے کہ یہ سروس ڈیٹا بیس سے ہمیشہ مکمل طور پر الگ ہو۔

اس پروفائل کے ساتھ کسی نام یا چہرے کو منسلک کیے بغیر موضوع کے ذوق اور ترجیحات کو جاننا اپ اسٹریم کی گئی گمنامی کی ایک شکل کے طور پر کام کرے گا جو خود بخود ڈیٹا اکٹھا کرنے اور آٹومیشن سسٹمز جیسے مصنوعی ذہانت کے اندر ان کے استعمال کی اجازت دے گا۔

آرٹیکولو دی Gianfranco Fedele

انوویشن نیوز لیٹر
جدت پر سب سے اہم خبروں کو مت چھوڑیں۔ ای میل کے ذریعے انہیں وصول کرنے کے لیے سائن اپ کریں۔

حالیہ مضامین

Veeam ransomware کے لیے تحفظ سے لے کر ردعمل اور بازیابی تک سب سے زیادہ جامع تعاون فراہم کرتا ہے۔

Veeam کی طرف سے Coveware سائبر بھتہ خوری کے واقعات کے ردعمل کی خدمات فراہم کرتا رہے گا۔ Coveware فرانزک اور تدارک کی صلاحیتیں پیش کرے گا…

اپریل 23 2024

سبز اور ڈیجیٹل انقلاب: کس طرح پیشین گوئی کی دیکھ بھال تیل اور گیس کی صنعت کو تبدیل کر رہی ہے

پیشن گوئی کی دیکھ بھال تیل اور گیس کے شعبے میں انقلاب برپا کر رہی ہے، پلانٹ کے انتظام کے لیے ایک جدید اور فعال نقطہ نظر کے ساتھ۔

اپریل 22 2024

UK کے عدم اعتماد کے ریگولیٹر نے GenAI پر BigTech کا الارم بڑھا دیا۔

UK CMA نے مصنوعی ذہانت کے بازار میں بگ ٹیک کے رویے کے بارے میں ایک انتباہ جاری کیا ہے۔ وہاں…

اپریل 18 2024

کاسا گرین: اٹلی میں پائیدار مستقبل کے لیے توانائی کا انقلاب

عمارتوں کی توانائی کی کارکردگی کو بڑھانے کے لیے یورپی یونین کی طرف سے تیار کردہ "گرین ہاؤسز" فرمان نے اپنے قانون سازی کے عمل کو اس کے ساتھ ختم کیا ہے…

اپریل 18 2024

اپنی زبان میں انوویشن پڑھیں

انوویشن نیوز لیٹر
جدت پر سب سے اہم خبروں کو مت چھوڑیں۔ ای میل کے ذریعے انہیں وصول کرنے کے لیے سائن اپ کریں۔

ہمارے ساتھ چلیے