人工智能比原子弹更危险?

潘文和 May 7, 2023 17:18

(Baonghean.vn)——人工智能(AI)专家发出严重警告,称不受控制的人工智能发展将对社会甚至人类自身的生存构成危险。

OpenAI 开发的先进对话式人工智能模型 ChatGPT 于 2022 年 11 月下旬推出,其惊人的性能引发了人们的期待:能够匹敌人类认知能力,甚至拥有“超人”智能的系统可能很快就会成为现实。

插图照片。

理解人类语言并生成与人类相似的文本是人工智能研究的长期目标。随着大型语言模型 (LLM) 的出现,这一目标比以往任何时候都更加接近。

ChatGPT 的核心是一个强大的对话式 AI 模型,它利用大型语言模型的优势,提供类似人类的响应、实时回答问题并提出建议。与受限于预设响应的传统聊天机器人不同,ChatGPT 能够理解并生成各种富有创意、有时甚至不准确的文本。

然而,人工智能专家发出了严峻的警告,称不受控制的人工智能发展将给社会,甚至人类生存带来危险。

人们已经针对人工智能的危险发出了许多警告。

3月22日,亿万富翁埃隆·马斯克和1000多名全球顶尖技术专家发起了一封致联合国的公开信的签署程序,警告人工智能发展失控的风险。公开信的结尾声明:“因此,我们呼吁所有人工智能实验室立即停止训练比GPT-4更强大的人工智能系统,至少6个月。”

为了证明停止对下一代 ChatGPT 模型的研究的必要性,公开信指出:

先进的人工智能模型可能代表着地球生命史的深刻变革,需要精心的规划和控制。然而,这尚未实现,尽管近几个月来,人工智能实验室陷入了一场失控的竞赛,竞相开发和部署越来越强大的数字思维,而这些思维,甚至连它们的创造者都无法可靠地理解、预测或控制。我们应该扪心自问:我们应该让所有工作都自动化吗?我们应该开发更聪明、能够取代我们的人工智能吗?我们应该冒着失去对人类文明控制的风险吗?

事实上,这并非科学家首次警告人工智能可能对人类构成危险。2014年,英国著名理论物理学家斯蒂芬·霍金就曾表示:“人工智能的全面发展可能会毁灭人类。”他还表示,如果人类在研发这项危险技术的过程中不谨慎,未来500年内将彻底被人工智能取代。

近日,被广泛认为是人工智能领域奠基人之一的美国计算机科学家埃利泽·尤德科夫斯基在美国《时代》杂志上发表题为《暂停人工智能发展是不够的,我们需要彻底关闭它》的文章,更是令人担忧。

因此,埃利泽·尤德科夫斯基先生表示,拥有超人类智慧的人工智能模型很有可能出现。届时,地球上的人类将面临真正的死亡风险。这并非“可能”,但“是必然会发生的”。

人工智能的潜在风险取决于其使用方式。人工智能最初是为了协助人类工作而开发的,尤其是那些枯燥重复的任务,例如对图像进行分类、审查信息……

然而,随着近年来人工智能的快速发展,科学家和技术专家担心,如果人工智能发展失控,或被编程用于错误的目的,可能会给人类和社会带来严重后果。

人工智能的发展需要像控制热核炸弹一样受到严格控制。

看到人工智能科学家呼吁暂停甚至停止该领域快速发展的工作,不禁让我们想起核武器的历史。

历史上科学家所创造的原子弹,其破坏力之可怕,也被认为是新技术研发的典型例子。

1949年,几位顶尖核物理学家和其他原子弹项目资深人士抗议参与热核武器(“氢弹”)的研发,因为这种炸弹释放的能量可能比裂变原子弹高出1000倍。

大多数科学家都认为,热核炸弹威胁着人类的未来。如果没有这种超级炸弹,人类的生活会更好。

然而,除了对人类构成威胁的军事应用之外,以裂变反应堆形式存在的原子能也给人类带来了巨大的利益。热核能,最初以不受控制的形式在热核炸弹中释放,预示着更大的利益。

当人工智能发展到可以自主决策应对周围环境的变化或者寻找替代目标或者扩大目标范围的时候,那么或许人类就不再安全了。

例如,未来人工智能将支持电力、交通、医疗、金融等重要系统。它能够掌握和控制所有这些系统,并在紧急情况下做出并执行这些决策。当人工智能与更“宏大”的目标相结合时,它可能会造成许多严重后果,例如通过禁用交通信号灯系统或切断城市列车系统的电源来扰乱交通系统,引发一系列事故,造成大面积停电等等。

美国好莱坞电影公司也制作了不少以此为主题的电影。然而,在如今的人工智能技术下,这已不再是遥不可及的愿景,而是完全有可能成为现实。埃隆·马斯克认为,如果人工智能任其发展,发展到无需人工干预就能自动做出决策的地步,这可能会对人类的生存构成威胁。

因此,他与数千名科技专家签署了一封公开信,要求暂时停止人工智能的开发,并以透明的方式严格管控。埃隆·马斯克表示,人工智能系统非常复杂,难以理解,控制起来也非常困难。如果没有透明度,人工智能必将被用于不道德的目的,对人类造成损害。

人工智能可以改变人类行为吗?

假设未来基于深度学习的人工智能系统逐渐获得通过心理状态操纵人类并改变其行为的能力。深度学习可以被视为机器学习的一个分支,计算机将通过算法进行学习和自我提升。深度学习建立在更为复杂的概念之上,主要利用人工神经网络来模拟人脑的思考和推理能力。

事实上,这样的系统可能会掌控整个社会。鉴于基于深度学习的人工智能系统行为的不可预测性,如果不加以严格控制,它可能给人类带来灾难性的后果。

未来,各国将在媒体、教育系统和其他领域部署一系列行为修改型人工智能系统,以“优化”社会。这一过程最初可能有效,但很快就会失控,导致社会混乱。

许多人工智能应用都经过优化,可以改变人类行为,包括用于心理治疗的聊天机器人。在儿童教育等许多其他领域,人工智能应用也具有强大的行为矫正效果。

与任何其他技术一样,每种人工智能应用都有其优势和潜在风险。目前,人工智能系统的性能仍然由人类控制。

然而,人工智能的发展开辟了一个全新的维度。著名人工智能专家兰斯·艾略特最近在《福布斯》杂志上发表了一篇文章,详细介绍了聊天机器人和其他人工智能应用程序即使在无意的情况下也能操纵人类心理的多种方式。

另一方面,利用人工智能系统有意操纵行为和思维是一个快速发展的领域,并在各种环境中得到持续应用。

例如,基于人工智能的先进电子学习系统也可以被视为一种行为矫正。事实上,人工智能在教育领域的应用往往基于人类学习的行为模型。先进的人工智能教学系统旨在优化儿童的反应和表现,为每个儿童建立个性化档案,实时评估他们的学习进度,并相应地调整他们的学习活动。

另一个例子是人工智能聊天机器人的流行,它可以帮助人们戒烟或戒毒、适当锻炼并养成更健康的习惯。

毫无疑问,人工智能系统在许多特定情况下的表现确实优于人类。此外,人工智能还在不断改进。但人工智能系统的持续扩展和整合将把我们带向何方,尤其是在它带来更全面、更强大的塑造人类思维和行为的能力之际?

纵观人类历史,试图将社会完全优化为按照严格标准运行的超级系统往往会导致灾难。

根据上述公开信,人工智能领域的大多数专家都同意,人工智能的应用必须始终在人类的监督下进行,人工智能的开发和应用必须由人类智能来管理。

基于深度学习的人工智能的扩散正日益渗透到人类活动的许多领域,而将此类系统融入社会等级制度的趋势将给社会带来巨大的风险。

这里的问题是,如果人工智能超级系统发生故障,并有可能造成灾难性后果,谁或什么会介入并阻止它?

在斯坦利·库布里克的著名科幻电影《2001:太空漫游》中,幸存的宇航员在最后一刻介入,关闭了人工智能系统。但是,如果人工智能系统事先调整了宇航员的行为,使其不会这样做,他还能做到这一点吗?

事实上,试图限制人工智能的发展是不合理的。这将是有害的,甚至适得其反。但我们必须认识到,人工智能系统快速发展到几乎人类活动的每个领域所带来的危险必须通过适当的监管和人类监督来遏制。

与其他技术一样,人工智能在改善工作和人类生活质量方面发挥着重要作用,既可用于好用途,也可用于坏用途。因此,我们必须严格管控这项技术,以免其失控,并在未来成为取代人类的风险。

特色义安报纸

最新的

x
人工智能比原子弹更危险?
供电内容管理系统- 产品