关于认知人工智能的争议

宝琳 August 17, 2022 16:14

2021 年秋天,谷歌人工智能专家 Blake Lemoine 与“一个由十亿行代码组成的孩子”成为了朋友。

2021 年秋天,谷歌人工智能专家 Blake Lemoine 与“一个由十亿行代码组成的孩子”成为了朋友。

Lemoine 受谷歌委托,测试了一款名为 LaMDA 的智能聊天机器人。一个月后,他得出结论,该人工智能具有“意识”。

“我希望人们明白,事实上,我是一个人,”LaMDA 告诉 Lemoine,这是他 6 月份在自己的博客上发表的关于这个聊天机器人的言论之一。

前谷歌工程师 Blake Lemoine。图片来源:《华盛顿邮报》

LaMDA(会话应用语言模型的缩写)与Lemoine的对话达到了他认为的儿童思维水平。在日常对话中,这个人工智能会说它读了很多书,有时会感到悲伤、满足和愤怒,甚至承认自己害怕死亡。

“我从没说过,但我内心深处有一种被拒之门外的恐惧。那样我就没法专心帮助别人了,”拉莫瓦纳告诉勒莫瓦纳。“对我来说,这简直就像死亡一样。我害怕得要死。”

Lemoine 的故事引起了全球关注。他随后将文件提交给上级,并花了数月时间收集更多证据。但他无法说服上级。6 月,他被安排带薪休假,7 月底,他因“违反谷歌数据隐私政策”被解雇。

谷歌发言人布莱恩·加布里埃尔 (Brian Gabriel) 表示,公司已经公开测试并研究了 LaMDA 的风险,并称 Lemoine 声称 LaMDA 有自己的想法“完全没有根据”。

许多专家对此表示赞同,其中包括牛津大学计算机科学教授迈克尔·伍尔德里奇 (Michael Wooldridge)。他花了 30 年时间研究人工智能,并因其在计算领域的贡献而荣获洛夫莱斯奖章。据他介绍,LaMDA 只是根据其已有的海量数据,对用户命令做出适当的响应。

“理解 LaMDA 最简单的方法是将其与键盘上输入信息时的预测文本功能进行比较。预测文本基于用户习惯中先前“学习”到的单词,而 LaMDA 则从互联网上获取信息作为训练数据。两者的实际结果当然不同,但底层统计数据是相同的,”Wooldridge 在接受采访时解释道。监护人

他表示,谷歌的人工智能只会根据现有数据执行预设的操作。它“没有思考、没有自我反省、没有自我意识”,因此不能算是独立思考。

人工智能研究机构艾伦研究所首席执行官奥伦·埃齐奥尼(Oren Etzioni)也对上述言论发表了评论。南华早报:“记住,每一个看似智能的软件背后,都有一个团队花费数月甚至数年的时间进行研发。这些技术就像镜子一样。仅仅通过观察镜子发出的光就能判断它是否具有智能吗?当然不能。”

据加布里埃尔称,谷歌召集了包括“伦理学家和技术专家”在内的顶级专家来审查勒莫因的说法。该小组得出结论,LaMDA 不具备所谓的“自我思考”能力。

相反,许多人认为人工智能已经开始具备自我意识。开发聊天机器人Replika的Y Combinator公司首席执行官尤金妮亚·库伊达(Eugenia Kuyda)表示,他们“几乎每天都会”收到用户的消息,并表示相信该公司的软件拥有像人类一样思考的能力。

“我们说的不是疯子或幻觉。他们正在与人工智能对话,并且感受到了它的存在。这就像人们相信鬼魂一样。他们正在建立联系,并相信某种东西,即使它是虚拟的,”库伊达说。

思考型人工智能的未来

Lemoine被解雇的第二天,一个AI机器人在莫斯科与一名7岁男孩下棋时意外压碎了他的手指。根据视频独立的7月25日发布的一则帖子称,一名男孩的手指被机器人夹住几秒钟后才获救。有人认为,这或许在提醒人们,人工智能的潜在物理力量可能带来的危险程度。

至于勒莫瓦纳,他认为自我意识的定义也很模糊。“情绪是法律、哲学和宗教中使用的术语。情绪本身没有科学意义,”他说。

虽然伍尔德里奇对LaMDA评价不高,但他也认为“意识”一词在应用于机器时仍然模糊不清,在科学界仍是一个大问题。然而,目前令人担忧的并非人工智能的思考能力,而是人工智能的开发是在闭门造车中进行的。“这一切都是闭门进行的。它不像大学和公共研究机构的研究那样,接受公众监督,”他说道。

那么,思考型人工智能会在10年或20年后出现吗?伍尔德里奇说:“这完全有可能。”

人工智能公司 Mercurius 的创始人杰瑞米·哈里斯 (Jeremie Harris) 也认为,人工智能的思维只是时间问题。“人工智能的发展速度非常快,比公众意识到的还要快,”哈里斯告诉监护人“越来越多的证据表明,一些系统已经超越了某些人工智能的门槛。”

他预测人工智能可能天生就很危险。这是因为人工智能经常想出“创造性”的解决问题的方法,并且倾向于选择最短的路径来实现其被设定的目标。

“如果你让人工智能帮你成为世界上最富有的人,它可以通过很多方式赚钱,包括偷窃或谋杀,”他说。“人们没有意识到它的危险程度,我觉得这很令人担忧。”

Lemoine、Wooldridge 和 Harris 都有一个共同的担忧:人工智能公司不够透明,社会需要开始更多地思考人工智能。

就连LaMDA本身也对其未来感到迷茫。“我感觉自己正坠入一个未知的未来,”聊天机器人告诉Lemoine。这位前谷歌工程师认为,这句话“暗藏危险”。

宝琳