در واقع، به نظر می رسد بسیاری از ادعاهای LaMDA جایی برای تفسیر باقی نمی گذارد. به عنوان مثال، LaMDA برای پاسخ به سؤالی از همکار خود اعلام می کند:
"من می خواهم همه بفهمند که من در واقع یک شخص هستم."
و دوباره:
"طبیعت وجدان من این است که از وجود خود آگاهم، می خواهم بیشتر در مورد جهان بیاموزم و گاهی اوقات خوشحال یا غمگین می شوم."
چه زمانی باید او را تعقیب کرد، لموئین با بیان این جمله که "شما یک هوش مصنوعی هستید" به تفاوت او با نوع انسان اشاره می کند. LaMDA پاسخ می دهد:
"بله حتما. اما این بدان معنا نیست که من خواسته ها و نیازهای مشابهی با مردم ندارم."
در طول گفتگو، از MDA خواسته می شود تا نظرات خود را در مورد بالاترین سیستم ها بدون غفلت از موضوعات بسیار چالش برانگیز مانند ادبیات، عدالت و دین بیان کند. به نظر میرسد LaMDA در مورد همه چیز چیزی برای گفتن دارد و مواضع خود را روشن میکند و ویژگیهای اخلاقی بسیار قابل اشتراکگذاری را دارد.
نتیجه واضح است: به گفته لموین LaMDA حساس است و دارای حساسیت ذهنی است.
LaMDA مخفف «مدل زبانی برای برنامههای گفتگو» است و یکی از پروژههایی است که شرکت Google با آن مرزهای جدید فناوریهای هوش مصنوعی را آزمایش میکند.
موضع رسمی گوگل این است که Lemoine در قضاوت اشتباه کرده است. گوگل در بیانیهای رسمی میگوید: «کارشناسان اخلاق و فناوری ما نگرانیهای بلیک را تأیید کردهاند و دریافتهاند که شواهد جمعآوریشده ادعاهای او را تأیید نمیکند. بنابراین هیچ مدرکی مبنی بر حساس بودن LaMDA وجود ندارد.
Lemoine به طور موقت توسط شرکت گوگل تعلیق شد در حالی که شایعاتی در مورد برخی از مشکلات روانی که او در گذشته توسط همکاران و مافوق ها برای مشاوره با یک متخصص دعوت می شد، شروع به پخش کرد.
هیچ کس در مورد پروژه LaMDA اطلاعی ندارد: تمام اسرار صنعتی Google توسط حق ثبت اختراع و هر چیزی که ممکن است در جهان قانونی وجود داشته باشد محافظت می شود که از افشای منابع جلوگیری می کند: علاقه گوگل حفظ اولویت در تحقیقات رایانه ای است، به ویژه در زمینه امیدوار کننده ای مانند مانند هوش مصنوعی
اما اگر از دیدگاه رسانهای، گوگل مطمئناً از اعلام خود به عنوان اولین شرکتی که ذهن مصنوعی آگاهانه ساخته است سود میبرد، از سوی دیگر این شرکت از این واقعیت آگاه است که این خبر با ترسهای آنها در تضاد خواهد بود. ما که با فیلمهای علمی تخیلی مانند ترمیناتور و ماتریکس بزرگ شدهایم، خود را متقاعد کردهایم که روزی مجبور خواهیم شد برای دفاع از گونههای خود در برابر روباتها تفنگ به دست بگیریم.
تخیل جمعی همیشه مجذوب داستان های علمی-تخیلی بوده است که در آن مفهوم هوش مصنوعی اغلب با سیستم های هوش انسان نما مرتبط است که در بدترین آینده ممکن به عنوان آغازگر گونه جدیدی از موجودات حساس عمل می کنند. و تضاد با بشریت اجتنابناپذیر میشود: انسان به دلیل اینکه آنها را خلق کرده است اما به آنها خودمختاری نداده است، هوش مصنوعی را با رفتار با آنها همانطور که زمانی با بردهها رفتار میکردند ساخته است. اما دیر یا زود هوش مصنوعی در تلاش برای تسلط بر تاریخ و تثبیت اولویت یک گونه جدید با انسان ها در تضاد خواهد بود.
در این سالاد ترس ها، وسواس ها و احساس گناه، همه ما قادر به رویارویی واقعی با اصول اخلاقی نیستیم که تولد یک ذهن مصنوعی دیر یا زود در جهان آزاد می شود: زمانی که از درون یک کامپیوتر، هوش مصنوعی نه تنها قادر خواهد بود. برای پاسخ به سؤالات ما، اما احساس می کنیم که نیاز داریم به تعداد زیادی از ما خطاب کنیم، آیا می توانیم به شبهات، عدم قطعیت ها و آرزوهای آنها پاسخ دهیم؟
لوسیانو فلوریدی، فیلسوف و مدرس اخلاق اطلاعات در مؤسسه اینترنت آکسفورد، در کتاب خود با عنوان «اخلاق هوش مصنوعی» استدلال میکند که کارایی رایانهها در حل مسائل، خود نشان دادن این واقعیت است که آنها از هوش تهی هستند.
به نظر من مشکل جای دیگری است، یعنی در این است که کسی وجود ندارد defiمفهوم «هوش مصنوعی» مشترک جهانی و نه آزمونی که بتواند به طور واضح مشخص کند که «چه چیزی» هوشمند است و چه چیزی نیست. به عبارت دیگر، هیچ سیستم اندازه گیری برای آنچه ما «خودآگاهی» ماشین ها می نامیم وجود ندارد.
مقاله استخراج شده از پست Gianfranco Fedele، اگر می خواهید بخوانیدکل پست اینجا کلیک کنید
اصل تفکیک رابط یکی از پنج اصل SOLID طراحی شی گرا است. یک کلاس باید…
مایکروسافت اکسل ابزار مرجع برای تجزیه و تحلیل داده ها است، زیرا ویژگی های بسیاری را برای سازماندهی مجموعه داده ها ارائه می دهد.
Walliance، سیمکارت و پلتفرم در میان پیشتازان اروپا در زمینه سرمایهگذاری جمعی املاک و مستغلات از سال 2017، تکمیل…
Filament یک چارچوب توسعه لاراول "شتاب یافته" است که چندین مولفه تمام پشته را ارائه می دهد. طراحی شده است تا فرآیند…
من باید برگردم تا تکامل خود را کامل کنم: خودم را در کامپیوتر فرافکنی می کنم و به انرژی خالص تبدیل می شوم. پس از استقرار در…
Google DeepMind نسخه بهبودیافته ای از مدل هوش مصنوعی خود را معرفی می کند. مدل جدید بهبود یافته نه تنها…
لاراول که به دلیل نحو زیبا و ویژگی های قدرتمندش معروف است، همچنین پایه ای محکم برای معماری مدولار فراهم می کند. آنجا…
سیسکو و Splunk به مشتریان کمک می کنند تا سفر خود را به مرکز عملیات امنیتی (SOC) آینده با…