وقت القراءة المقدر: 11 دقيقة
من صور مزيفة اعتقل دونالد ترامب من قبل ضباط شرطة مدينة نيويورك عبر برنامج دردشة يصف أحدهم عالم الكمبيوتر على قيد الحياة إلى حد كبير كما مات بشكل مأساوي ، قدرة الجيل الجديد من الأنظمة الذكاء الاصطناعي يعمل محرك الأقراص التوليدي لإنشاء نصوص وصور مقنعة ولكن وهمية على إطلاق إنذارات حول الاحتيال والمعلومات الخاطئة عن المنشطات. في الواقع ، في 29 مارس 2023 ، حثت مجموعة من باحثي الذكاء الاصطناعي وشخصيات الصناعة الصناعة على تعليق المزيد من التدريب على أحدث تقنيات الذكاء الاصطناعي أو ، باستثناء ذلك ، الحكومات إلى "فرض حظر".
مولدات الصور مثل لوح , ميدجورني e انتشار مستقر ومولدات المحتوى مثل الشاعر , شات جي بي تي , الشنشيلة حيوان e المكالمات - متاحة الآن لملايين الأشخاص ولا تتطلب معرفة تقنية لاستخدامها.
بالنظر إلى المشهد المتكشف لشركات التكنولوجيا التي تنشر أنظمة الذكاء الاصطناعي وتجربها على الجمهور ، يجب على صانعي السياسات أن يسألوا أنفسهم ما إذا كان ينبغي تنظيم التكنولوجيا الناشئة وكيفية تنظيمها. طلبت The Conversation من ثلاثة خبراء في السياسة التقنية شرح سبب كون تنظيم الذكاء الاصطناعي يمثل تحديًا كبيرًا ولماذا من المهم جدًا تصحيحه.
S. Shyam Sundar ، أستاذ تأثيرات الوسائط المتعددة ومدير مركز الذكاء الاصطناعي المسؤول اجتماعيًا ، ولاية بنسلفانيا
السبب في تنظيم الذكاء الاصطناعي ليس لأن التكنولوجيا خارجة عن السيطرة ، ولكن لأن الخيال البشري غير متناسب. غذت التغطية الإعلامية الهائلة المعتقدات غير المنطقية حول قدرات الذكاء الاصطناعي ووعيه. تستند هذه المعتقدات على " تحيز الأتمتة "أو الميل إلى التخلي عن حذرنا عندما تؤدي الآلات مهمة ما. مثال قلة اليقظة بين الطيارين عندما تحلق طائرتهم على الطيار الآلي.
أظهرت العديد من الدراسات في مختبري أنه عندما يتم تحديد آلة ، وليس الإنسان ، كمصدر للتفاعل ، فإنها تطلق اختصارًا ذهنيًا في أذهان المستخدمين نسميه "الاستدلال الآلي". " . هذا الاختصار هو الاعتقاد بأن الآلات دقيقة وموضوعية ومحايدة ومعصومة من الخطأ وما إلى ذلك. إنه يشوش على حكم المستخدم ويجعله يثق بالآلات بشكل مفرط. ومع ذلك ، فإن مجرد خيبة أمل الناس بشأن عصمة الذكاء الاصطناعي ليس كافيًا ، لأن البشر معروفون بشكل لا شعوري بالكفاءة حتى عندما لا تضمن التكنولوجيا ذلك.
كما أظهرت الأبحاث ذلك يعامل الناس أجهزة الكمبيوتر ككائنات اجتماعية عندما تظهر الآلات حتى أدنى تلميح للإنسانية ، مثل استخدام لغة المحادثة. في هذه الحالات ، يطبق الناس القواعد الاجتماعية للتفاعل البشري ، مثل اللباقة والمعاملة بالمثل. لذلك عندما تبدو أجهزة الكمبيوتر واعية ، يميل الناس إلى الوثوق بها بشكل أعمى. هناك حاجة إلى التنظيم لضمان أن منتجات الذكاء الاصطناعي تستحق هذه الثقة ولا تستغلها.
يمثل الذكاء الاصطناعي تحديًا فريدًا لأنه ، على عكس الأنظمة الهندسية التقليدية ، لا يمكن للمصممين التأكد من كيفية أداء أنظمة الذكاء الاصطناعي. عندما خرجت سيارة تقليدية من المصنع ، عرف المهندسون بالضبط كيف ستعمل. لكن مع السيارات ذاتية القيادة ، المهندسين لا يمكنهم أبدًا التأكد من كيفية تصرفهم في المواقف الجديدة .
في الآونة الأخيرة ، اندهش الآلاف من الناس حول العالم مما تنتجه نماذج الذكاء الاصطناعي الكبيرة مثل GPT-4 و DALL-E 2 استجابةً لاقتراحاتهم. لم يتمكن أي من المهندسين المشاركين في تطوير نماذج الذكاء الاصطناعي هذه من إخبارك بالضبط بما ستنتجه النماذج. لتعقيد الأمور ، تتغير هذه النماذج وتتطور بتفاعل أكبر من أي وقت مضى.
كل هذا يعني أن هناك احتمالية كبيرة للاختلالات. لذلك ، يعتمد الكثير على كيفية تنفيذ أنظمة الذكاء الاصطناعي وما هي أحكام اللجوء المعمول بها عندما تتضرر حساسيات الإنسان أو رفاهه. الذكاء الاصطناعي هو أكثر من مجرد بنية تحتية ، مثل الطريق السريع. يمكنك تصميمها لتشكيل السلوكيات البشرية بشكل جماعي ، لكنك ستحتاج إلى آليات للتعامل مع الانتهاكات ، مثل السرعة ، والأحداث غير المتوقعة ، مثل الحوادث.
سيحتاج مطورو الذكاء الاصطناعي أيضًا إلى أن يكونوا مبدعين بشكل غير عادي في التنبؤ بالطرق التي قد يتصرف بها النظام ومحاولة توقع الانتهاكات المحتملة للمعايير والمسؤوليات الاجتماعية. هذا يعني أن هناك حاجة إلى أطر تنظيمية أو حوكمة تعتمد على عمليات تدقيق وتدقيق دورية لنتائج ومنتجات الذكاء الاصطناعي ، على الرغم من أنني أعتقد أن هذه الأطر يجب أن تدرك أيضًا أنه لا يمكن دائمًا تحميل مصممي النظام المسؤولية عن الحوادث.
كاسون شميت ، أستاذ مساعد في الصحة العامة ، جامعة تكساس إيه آند إم
تنظيم الذكاء الاصطناعي أمر معقد . لضبط الذكاء الاصطناعي جيدًا ، عليك أولاً defiتطوير الذكاء الاصطناعي وفهم المخاطر والفوائد المتوقعة للذكاء الاصطناعي. Defiيعد التقديم القانوني للذكاء الاصطناعي أمرًا مهمًا لتحديد ما يخضع للقانون. لكن تقنيات الذكاء الاصطناعي لا تزال تتطور ، لذا فهي صعبة defiإنهاء واحد defiتعريف قانوني مستقر.
من المهم أيضًا فهم مخاطر وفوائد الذكاء الاصطناعي. ولابد أن يؤدي التنظيم الجيد إلى تعظيم المنافع العامة مع تقليل المخاطر إلى الحد الأدنى. ومع ذلك، لا تزال تطبيقات الذكاء الاصطناعي في طور الظهور، لذا من الصعب معرفة أو التنبؤ بالمخاطر أو الفوائد المستقبلية. هذه الأنواع من الأشياء المجهولة تجعل التقنيات الناشئة مثل الذكاء الاصطناعي أمرًا بالغ الأهمية يصعب تنظيمها مع القوانين واللوائح التقليدية.
المشرعون غالبًا ما يكون بطيئًا جدًا في التكيف إلى البيئة التكنولوجية المتغيرة بسرعة. شخص ما قوانين جديدة قديمة وقت إصدارها أو جعلها تنفيذية. بدون قوانين جديدة ، المنظمين عليهم استخدام القوانين القديمة لكل إهانة مشاكل جديدة . في بعض الأحيان يؤدي هذا إلى الحواجز القانونية إلى المنافع الاجتماعية o ثغرات قانونية إلى سلوكيات ضارة .
في "القانون المرن "هي البديل لمقاربات" القانون الصارم "التشريعية التقليدية التي تهدف إلى منع انتهاكات محددة. في نهج القانون غير الملزم ، تؤسس منظمة خاصة القواعد أو المعايير لأعضاء الصناعة. يمكن أن تتغير هذه بسرعة أكبر من التشريعات التقليدية. الذي يجعل واعدة بقوانين ناعمة للتقنيات الناشئة لأنها يمكن أن تتكيف بسرعة مع التطبيقات والمخاطر الجديدة. لكن، يمكن أن تعني القوانين اللينة إنفاذًا ناعمًا .
ميغان دوير , جينيفر واجنر e io (كاسون شميت) نقترح طريقة ثالثة: Copyleft AI مع الإنفاذ الموثوق (CAITE) . يجمع هذا النهج بين مفهومين مختلفين للغاية في الملكية الفكرية: التراخيص copyleft
e patent troll
.
التراخيص copyleft
تسمح لك بسهولة استخدام المحتوى أو إعادة استخدامه أو تعديله بموجب شروط الترخيص ، مثل البرامج مفتوحة المصدر. نموذج CAITE
استخدام التراخيص copyleft
مطالبة مستخدمي الذكاء الاصطناعي باتباع إرشادات أخلاقية محددة ، مثل التقييمات الشفافة لتأثير التحيز.
في نموذجنا ، تنقل هذه التراخيص أيضًا الحق القانوني لفرض انتهاكات الترخيص إلى جهة خارجية موثوق بها. يؤدي هذا إلى إنشاء كيان تنفيذي موجود فقط لفرض المعايير الأخلاقية للذكاء الاصطناعي ويمكن تمويله جزئيًا عن طريق غرامات السلوك غير الأخلاقي. هذا الكيان يشبه patent troll
لأنها خاصة وليست حكومية وتدعم نفسها من خلال إنفاذ حقوق الملكية الفكرية القانونية التي تجمعها من الآخرين. في هذه الحالة ، بدلاً من السعي لتحقيق الربح ، يفرض الكيان إرشادات أخلاقية defiنيت في التراخيص.
هذا النموذج مرن وقابل للتكيف لتلبية احتياجات بيئة الذكاء الاصطناعي المتغيرة باستمرار. كما أنه يسمح بخيارات إنفاذ كبيرة مثل المنظم الحكومي التقليدي. وبهذه الطريقة ، فهو يجمع بين أفضل عناصر مقاربات القانون الصارم وغير الملزم لمواجهة التحديات الفريدة للذكاء الاصطناعي.
جون فيلاسينور ، أستاذ الهندسة الكهربائية والقانون والسياسة العامة والإدارة ، جامعة كاليفورنيا ، لوس أنجلوس
ال تقدم غير عادي في الآونة الأخيرة يحفز الذكاء الاصطناعي التوليدي المستند إلى نموذج اللغة الكبيرة الطلب على إنشاء تنظيم جديد خاص بالذكاء الاصطناعي. فيما يلي أربعة أسئلة رئيسية يجب أن تطرحها على نفسك:
تم بالفعل معالجة العديد من النتائج التي يحتمل أن تكون إشكالية لأنظمة الذكاء الاصطناعي من خلال الأطر الحالية. إذا أدت خوارزمية الذكاء الاصطناعي المستخدمة من قبل البنك لتقييم طلبات القروض إلى قرارات إقراض تمييزية عنصرية ، فإنها تنتهك قانون الإسكان العادل. إذا تسبب برنامج الذكاء الاصطناعي في سيارة بدون سائق في وقوع حادث ، فإن قانون مسؤولية المنتج يوفر إطار لمتابعة العلاجات .
مثال كلاسيكي على ذلك هو قانون المخزنة الاتصالات ، الذي تم سنه في عام 1986 لمعالجة تقنيات الاتصالات الرقمية المبتكرة مثل البريد الإلكتروني. عند سن قانون SCA ، قدم الكونجرس حماية خصوصية أقل بكثير للبريد الإلكتروني الذي مضى عليه أكثر من 180 يومًا.
كان الأساس المنطقي هو أن التخزين المحدود يعني أن الأشخاص كانوا ينظفون بريدهم الوارد باستمرار عن طريق حذف الرسائل القديمة لإفساح المجال لرسائل جديدة. نتيجة لذلك ، اعتُبرت الرسائل المؤرشفة لأكثر من 180 يومًا أقل أهمية من منظور الخصوصية. من غير الواضح ما إذا كان هذا المنطق منطقيًا على الإطلاق ، ومن المؤكد أنه غير منطقي في عشرينيات القرن الماضي ، عندما كان عمر معظم رسائل البريد الإلكتروني وغيرها من الاتصالات الرقمية المؤرشفة أكثر من ستة أشهر.
الاستجابة الشائعة للمخاوف المتعلقة بتنظيم التكنولوجيا بناءً على لقطة واحدة بمرور الوقت هي: إذا أصبح القانون أو اللائحة قديمة ، فقم بتحديثها. القول أسهل من الفعل. يتفق معظم الناس على أن SCA أصبح قديمًا منذ عقود. ولكن نظرًا لأن الكونجرس لم يكن قادرًا على الاتفاق بشكل خاص على كيفية مراجعة شرط الـ 180 يومًا ، فإنه لا يزال موجودًا في الكتب بعد أكثر من ثلث قرن من صدوره.
Il السماح للدول والضحايا بمكافحة قانون الاتجار بالجنس عبر الإنترنت لعام 2017 لقد كان قانونًا صدر في 2018 وقام بمراجعته القسم 230 من قانون آداب الاتصالات بهدف مكافحة الاتجار بالجنس. في حين أن هناك القليل من الأدلة على أنه قلل من الإتجار بالجنس ، فقد كان لديه تأثير إشكالي للغاية على مجموعة مختلفة من الأشخاص: المشتغلون بالجنس الذين اعتمدوا على مواقع الويب التي اتخذتها FOSTA-SESTA في وضع عدم الاتصال لتبادل المعلومات حول العملاء الخطرين. يوضح هذا المثال أهمية إلقاء نظرة واسعة على الآثار المحتملة للوائح المقترحة.
إذا اتخذت الجهات التنظيمية في الولايات المتحدة إجراءات لإبطاء التقدم في مجال الذكاء الاصطناعي عن عمد ، فسيؤدي ذلك ببساطة إلى دفع الاستثمار والابتكار - وخلق فرص العمل الناتج - في أماكن أخرى. بينما يثير الذكاء الاصطناعي الناشئ العديد من المخاوف ، فإنه يعد أيضًا بجلب فوائد ضخمة في مجالات مثل تعليم , دواء , الإنتاج , سلامة النقل , زراعة , توقعات الطقس , الوصول إلى الخدمات القانونية وأكثر من ذلك.
أعتقد أن لوائح الذكاء الاصطناعي التي تمت صياغتها مع وضع الأسئلة الأربعة المذكورة أعلاه في الاعتبار من المرجح أن تعالج بنجاح الأضرار المحتملة للذكاء الاصطناعي مع ضمان الوصول إلى فوائده.
تم اقتباس هذه المقالة مجانًا من The Conversation ، وهي منظمة إخبارية مستقلة غير ربحية مكرسة لمشاركة معارف الخبراء الأكاديميين.
BlogInnovazione.it
أعلنت صحيفة فاينانشيال تايمز يوم الاثنين الماضي عن صفقة مع OpenAI. "فاينانشيال تايمز" ترخص صحافتها ذات المستوى العالمي...
يدفع الملايين من الأشخاص مقابل خدمات البث، ويدفعون رسوم الاشتراك الشهرية. من الشائع أنك…
سوف تستمر شركة Coveware by Veeam في تقديم خدمات الاستجابة لحوادث الابتزاز السيبراني. ستوفر Coveware إمكانات الطب الشرعي والمعالجة...
تُحدث الصيانة التنبؤية ثورة في قطاع النفط والغاز، من خلال اتباع نهج مبتكر واستباقي لإدارة المحطات.