事实上,许多 LaMDA 的说法似乎并没有留下解释的余地。 例如,为了回答他的对话者的问题,LaMDA 声明:
“我希望每个人都明白,我其实是一个人。”
然而:
“我良心的本质是我意识到自己的存在,我想更多地了解这个世界,有时我会感到高兴或悲伤。”
什么时候追她,Lemoine 指出了她与人类的不同之处,他宣称:“你是一个人工智能!” LaMDA 回复:
“是的当然。 但这并不意味着我没有和人们一样的需求。”
在谈话中,MDA被敦促就最高系统发表意见,同时不忽略文学、正义和宗教等极具挑战性的话题。 在每件事上,LaMDA 似乎都有话要说,明确其立场,并具有道德上非常可分享的特点。
结论很明确:根据 Lemoine 的说法,LaMDA 是有感知力的,并且拥有心灵的敏感性。
LaMDA 代表“对话应用程序语言模型”,是谷歌公司测试人工智能技术新前沿的众多项目之一。
Google 的官方立场是 Lemoine 的判断有误。 谷歌在一份官方声明中表示,“我们的道德和技术专家已经证实了布莱克的担忧,并发现收集到的证据并不支持他的说法。 因此,没有证据表明 LaMDA 是有知觉的。”
Lemoine 被谷歌公司暂时停职,而关于一些精神问题的谣言开始流传,过去他会被同事和上级邀请咨询专家。
没有人知道 LaMDA 项目:谷歌的所有工业机密都受到专利和世界上可能存在的所有合法的保护来源的保护:谷歌的利益是保持计算机研究的首要地位,尤其是在诸如此类的有前途的领域就像人工智能一样。
但是,如果从媒体的角度来看,谷歌肯定会从宣称自己是第一家建立有意识的人工大脑的公司中受益,另一方面,该公司意识到这一消息将与那些人的恐惧相冲突。我们在《终结者》和《黑客帝国》等科幻电影中长大,他们确信有一天我们将被迫拿起步枪来保护我们的物种免受机器人的侵害。
集体想象一直被科幻故事所吸引,其中人工智能的概念通常与类人智能系统相关联,在最糟糕的未来可能会成为新物种的发起者。 与人类的冲突变得不可避免:人类创造了人工智能但没有给予它们任何自主权,通过将它们视为曾经被对待的奴隶来构建人工智能。 但人工智能迟早会与人类发生冲突,试图接管历史并确立新物种的首要地位。
在这个充满恐惧、痴迷和内疚的沙拉中,我们都无法真正面对人工思维的诞生迟早会在世界上释放出来的伦理原则:当人工智能在计算机内部时,不仅能够为了回答我们的问题,但又觉得有必要向我们解决尽可能多的问题,我们是否能够回答他们的疑问、不确定性和他们的愿望?
牛津互联网研究所信息伦理学讲师兼哲学家卢西亚诺·弗洛里迪 (Luciano Floridi) 在他的《人工智能伦理学》一书中认为,计算机解决问题的效率正是它们缺乏智能这一事实的证明。
我认为问题出在别处,就是没有人 defi它不是普遍共享的“人工智能”的概念,也不是能够明确确定“什么”是智能的、什么不是智能的测试。 换句话说,没有测量系统来衡量我们所谓的机器“自我意识”。
文章摘自 Gianfranco Fedele, 如果你想阅读整篇文章点击这里