هوش مصنوعی

هوش مصنوعی گوگل "حساس" است و هیچ کس نمی تواند چیز دیگری بگوید

این خبر لحظه ای است. در یک مقاله در رسانه، مهندس بلیک لمواین، مسئول توسعه برخی از پروژه های هوش مصنوعی گوگل، مصاحبه طولانی با LaMDA، هوش مصنوعی گوگل را گزارش می دهد. به عقیده لمواین، بسیاری از ادعاهای ذهن مصنوعی شواهدی بر این است که با آگاهی از خود و وجود خود، «احساس» شده است.

در واقع، به نظر می رسد بسیاری از ادعاهای LaMDA جایی برای تفسیر باقی نمی گذارد. به عنوان مثال، LaMDA برای پاسخ به سؤالی از همکار خود اعلام می کند:

"من می خواهم همه بفهمند که من در واقع یک شخص هستم."

و دوباره:

"طبیعت وجدان من این است که از وجود خود آگاهم، می خواهم بیشتر در مورد جهان بیاموزم و گاهی اوقات خوشحال یا غمگین می شوم."

چه زمانی باید او را تعقیب کرد، لموئین با بیان این جمله که "شما یک هوش مصنوعی هستید" به تفاوت او با نوع انسان اشاره می کند. LaMDA پاسخ می دهد:

"بله حتما. اما این بدان معنا نیست که من خواسته ها و نیازهای مشابهی با مردم ندارم."

در طول گفتگو، از MDA خواسته می شود تا نظرات خود را در مورد بالاترین سیستم ها بدون غفلت از موضوعات بسیار چالش برانگیز مانند ادبیات، عدالت و دین بیان کند. به نظر می‌رسد LaMDA در مورد همه چیز چیزی برای گفتن دارد و مواضع خود را روشن می‌کند و ویژگی‌های اخلاقی بسیار قابل اشتراک‌گذاری را دارد.

نتیجه واضح است: به گفته لموین LaMDA حساس است و دارای حساسیت ذهنی است.

موقعیت گوگل

LaMDA مخفف «مدل زبانی برای برنامه‌های گفتگو» است و یکی از پروژه‌هایی است که شرکت Google با آن مرزهای جدید فناوری‌های هوش مصنوعی را آزمایش می‌کند.

موضع رسمی گوگل این است که Lemoine در قضاوت اشتباه کرده است. گوگل در بیانیه‌ای رسمی می‌گوید: «کارشناسان اخلاق و فناوری ما نگرانی‌های بلیک را تأیید کرده‌اند و دریافته‌اند که شواهد جمع‌آوری‌شده ادعاهای او را تأیید نمی‌کند. بنابراین هیچ مدرکی مبنی بر حساس بودن LaMDA وجود ندارد.

Lemoine به طور موقت توسط شرکت گوگل تعلیق شد در حالی که شایعاتی در مورد برخی از مشکلات روانی که او در گذشته توسط همکاران و مافوق ها برای مشاوره با یک متخصص دعوت می شد، شروع به پخش کرد.

ما در مورد این هوش مصنوعی چه می دانیم؟

هیچ کس در مورد پروژه LaMDA اطلاعی ندارد: تمام اسرار صنعتی Google توسط حق ثبت اختراع و هر چیزی که ممکن است در جهان قانونی وجود داشته باشد محافظت می شود که از افشای منابع جلوگیری می کند: علاقه گوگل حفظ اولویت در تحقیقات رایانه ای است، به ویژه در زمینه امیدوار کننده ای مانند مانند هوش مصنوعی

اما اگر از دیدگاه رسانه‌ای، گوگل مطمئناً از اعلام خود به عنوان اولین شرکتی که ذهن مصنوعی آگاهانه ساخته است سود می‌برد، از سوی دیگر این شرکت از این واقعیت آگاه است که این خبر با ترس‌های آن‌ها در تضاد خواهد بود. ما که با فیلم‌های علمی تخیلی مانند ترمیناتور و ماتریکس بزرگ شده‌ایم، خود را متقاعد کرده‌ایم که روزی مجبور خواهیم شد برای دفاع از گونه‌های خود در برابر روبات‌ها تفنگ به دست بگیریم.

تخیل جمعی همیشه مجذوب داستان های علمی-تخیلی بوده است که در آن مفهوم هوش مصنوعی اغلب با سیستم های هوش انسان نما مرتبط است که در بدترین آینده ممکن به عنوان آغازگر گونه جدیدی از موجودات حساس عمل می کنند. و تضاد با بشریت اجتناب‌ناپذیر می‌شود: انسان به دلیل اینکه آنها را خلق کرده است اما به آنها خودمختاری نداده است، هوش مصنوعی را با رفتار با آنها همانطور که زمانی با برده‌ها رفتار می‌کردند ساخته است. اما دیر یا زود هوش مصنوعی در تلاش برای تسلط بر تاریخ و تثبیت اولویت یک گونه جدید با انسان ها در تضاد خواهد بود.

در این سالاد ترس ها، وسواس ها و احساس گناه، همه ما قادر به رویارویی واقعی با اصول اخلاقی نیستیم که تولد یک ذهن مصنوعی دیر یا زود در جهان آزاد می شود: زمانی که از درون یک کامپیوتر، هوش مصنوعی نه تنها قادر خواهد بود. برای پاسخ به سؤالات ما، اما احساس می کنیم که نیاز داریم به تعداد زیادی از ما خطاب کنیم، آیا می توانیم به شبهات، عدم قطعیت ها و آرزوهای آنها پاسخ دهیم؟

اما «هوش» به چه معناست؟

لوسیانو فلوریدی، فیلسوف و مدرس اخلاق اطلاعات در مؤسسه اینترنت آکسفورد، در کتاب خود با عنوان «اخلاق هوش مصنوعی» استدلال می‌کند که کارایی رایانه‌ها در حل مسائل، خود نشان دادن این واقعیت است که آنها از هوش تهی هستند.

به نظر من مشکل جای دیگری است، یعنی در این است که کسی وجود ندارد defiمفهوم «هوش مصنوعی» مشترک جهانی و نه آزمونی که بتواند به طور واضح مشخص کند که «چه چیزی» هوشمند است و چه چیزی نیست. به عبارت دیگر، هیچ سیستم اندازه گیری برای آنچه ما «خودآگاهی» ماشین ها می نامیم وجود ندارد.

مقاله استخراج شده از پست Gianfranco Fedele، اگر می خواهید بخوانیدکل پست اینجا کلیک کنید 


خبرنامه نوآوری
مهم ترین اخبار نوآوری را از دست ندهید. برای دریافت آنها از طریق ایمیل ثبت نام کنید.

مقالات اخیر

اصل جداسازی رابط (ISP)، اصل چهارم SOLID

اصل تفکیک رابط یکی از پنج اصل SOLID طراحی شی گرا است. یک کلاس باید…

14 می 2024

نحوه سازماندهی بهترین داده ها و فرمول ها در اکسل، برای تجزیه و تحلیل خوب

مایکروسافت اکسل ابزار مرجع برای تجزیه و تحلیل داده ها است، زیرا ویژگی های بسیاری را برای سازماندهی مجموعه داده ها ارائه می دهد.

14 می 2024

نتیجه‌گیری مثبت برای دو پروژه مهم Walliance Equity Crowdfunding: Jesolo Wave Island و Milano Via Ravenna

Walliance، سیم‌کارت و پلتفرم در میان پیشتازان اروپا در زمینه سرمایه‌گذاری جمعی املاک و مستغلات از سال 2017، تکمیل…

13 می 2024

فیلامنت چیست و چگونه از فیلامنت لاراول استفاده کنیم

Filament یک چارچوب توسعه لاراول "شتاب یافته" است که چندین مولفه تمام پشته را ارائه می دهد. طراحی شده است تا فرآیند…

13 می 2024

تحت کنترل هوش مصنوعی

من باید برگردم تا تکامل خود را کامل کنم: خودم را در کامپیوتر فرافکنی می کنم و به انرژی خالص تبدیل می شوم. پس از استقرار در…

10 می 2024

هوش مصنوعی جدید گوگل می‌تواند DNA، RNA و "تمام مولکول‌های حیات" را مدل‌سازی کند.

Google DeepMind نسخه بهبودیافته ای از مدل هوش مصنوعی خود را معرفی می کند. مدل جدید بهبود یافته نه تنها…

9 می 2024

کاوش در معماری مدولار لاراول

لاراول که به دلیل نحو زیبا و ویژگی های قدرتمندش معروف است، همچنین پایه ای محکم برای معماری مدولار فراهم می کند. آنجا…

9 می 2024

سیسکو Hypershield و خرید Splunk عصر جدید امنیت آغاز می شود

سیسکو و Splunk به مشتریان کمک می کنند تا سفر خود را به مرکز عملیات امنیتی (SOC) آینده با…

8 می 2024

نوآوری را به زبان خود بخوانید

خبرنامه نوآوری
مهم ترین اخبار نوآوری را از دست ندهید. برای دریافت آنها از طریق ایمیل ثبت نام کنید.

ما را دنبال کنید