以下人工智能技术的突破可能会威胁人类的未来。
(Baonghean.vn)——人工智能(AI)正以令人眼花缭乱的速度发展,预计2024年将是爆发之年,将出现许多新的突破。其中,有三项突破被认为是最令人恐惧的,因为它们可能带来负面影响。
虽然 2023 年人工智能取得了一些突破性的进展,但这只是更大进展的开始。2024 年将迎来可怕的突破,其中可能包括通用人工智能 (AGI)、人工智能杀手机器人的普及,以及逼真到几乎无法区分的深度伪造。
人工智能已经存在了几十年,但2023年才是这项令人毛骨悚然的技术的真正转折点。OpenAI的ChatGPT让人工智能变得触手可及,并走向大众实用。然而,人工智能的发展历程坎坷,今天的技术建立在过去失败的实验基础之上。

人工智能领域的大多数创新都旨在改进医疗诊断和科学发现等领域。例如,人工智能模型可以分析X光片,以确定您是否面临患肺癌的高风险。
在新冠疫情期间,科学家们还构建了一种算法,可以通过聆听患者咳嗽的细微差别来诊断病毒。人工智能还被用于设计超越人类想象的量子物理实验。
然而,并非所有技术突破都旨在造福人类。以下是2024年可能发生的三大最令人担忧的人工智能技术突破:
人工智能可能会带来可怕的后果
通用人工智能(AGI)是一种人工智能形式,其智能水平与人类相当或优于人类,能够思考、自主学习、解决复杂问题并适应新情况。
如果AGI成功研发,它将彻底改变从经济到军事的诸多领域。然而,AGI也可能带来可怕的后果,例如造成大规模失业、机器人战争,甚至人类灭绝。
同时,Q*是美国OpenAI公司开发的一种新型AI模型的名称,据称该模型有实现AGI的潜力。
关于 Q* 模型的信息仍然相当有限,但据消息人士透露,该模型能够解决问题,推理和感知问题的能力远超现有的人工智能模型。此外,Q* 是基于庞大的数据集进行训练的,其中包括文本、图像和代码。这使得该模型能够快速学习并适应新情况。
我们仍然不确定为什么 OpenAI 首席执行官 Sam Altman 被解雇,然后在 2023 年底复职。然而,一些内部消息表明,这与可能威胁人类未来的先进技术有关。
据路透社报道,OpenAI 的 Q* 系统可能代表着通用人工智能 (AGI) 领域的突破性进展。尽管关于这个神秘系统的信息非常有限,但如果传言属实,Q* 可能会将人工智能能力提升到一个新的水平。
AGI 是一个假设的临界点,或称“奇点”,届时 AI 将会变得比人类更聪明。目前的 AI 在人类擅长的领域仍然落后,例如情境推理和真正的创造力。大多数 AI 生成的内容只是对训练数据的重复。
但科学家表示,AGI 在某些任务上可能胜过人类。它也可能被武器化,用于制造更危险的病原体、发动大规模网络攻击或进行大规模操控。
长期以来,对通用人工智能的追求一直停留在科幻小说的层面,许多科学家认为我们永远无法实现。然而,OpenAI 达到这一里程碑无疑令人震惊,但这并非不可能。
我们知道,2023年2月,Sam Altman在一篇博客文章中概述了OpenAI的方法,为AGI奠定了基础。此外,专家们开始预测即将取得突破,其中包括美国处理器制造商Nvidia的首席执行官黄仁勋,他在2023年11月表示,AGI可能在未来五年内实现。
2024年会成为AGI的突破之年吗?只有时间才能给出答案。
人工智能杀手机器人正在崛起
世界各国政府越来越多地将人工智能用作战争工具。11月22日,美国政府宣布,47个国家已批准一项关于在军事领域负责任地使用人工智能的宣言。为什么要发布这样的宣言?因为“不负责任”的使用令人不安,也令人恐惧。例如,我们曾目睹人工智能无人机据称在利比亚无需人工干预就追捕士兵。
人工智能在军事领域发挥着越来越重要的作用。人工智能能够识别模式、自主学习,并在军事领域做出预测或建议,人工智能军备竞赛早已拉开帷幕。到2024年,人工智能不仅将应用于武器系统,还将应用于后勤、决策支持和研发领域。
例如,2022年,人工智能制造了4万种新型假想化学武器。美国军方各部队已订购能够比人类更好地识别目标和监视战场的无人机。据美国公共广播电台(NPR)报道,在最近以色列与哈马斯的战争中,以色列利用人工智能识别目标的速度至少比人类快50倍。
但最令人担忧的发展之一是致命自主武器系统(LAWS),即杀手机器人。许多顶尖科学家和技术专家都曾警告过杀手机器人的危险,包括理论物理学家斯蒂芬·霍金在2015年的警告和亿万富翁埃隆·马斯克在2017年的警告,但这项技术尚未普及。
虽然杀手机器人尚未兴起,但一些令人担忧的发展表明,2024 年可能是它们的突破之年。
据《原子科学家公报》报道,在乌克兰战争中,俄罗斯被指控部署了能够自动识别和攻击目标的Zala KYB-UAV无人机。
与此同时,据《澳大利亚金融评论报》报道,澳大利亚还在研发自主潜艇系统“幽灵鲨”,并准备进行量产。
世界各国在人工智能方面的支出水平也是一个指标。据路透社报道,中国的人工智能支出从2010年的1160万美元增长到2019年的1.41亿美元。部分原因是中国正在与美国在实施LAWS方面展开竞争。
这些例子表明,人工智能正在给战争带来重大变革。军用人工智能的研发竞争日益激烈,要求许多国家考虑负责任地使用人工智能,以避免不可预测的后果。
利用人工智能制作极其逼真的深度伪造视频来操纵选举选民
Deepfake 是一种技术,可以将视频中一个人的面部、声音和手势变成另一个人的,使其看起来和听起来与现实无法区分。
在选举背景下,这些超现实的深度伪造可以通过多种方式来操纵选民,包括:
诋毁候选人:制作候选人发表恶意、种族主义或冒犯性言论的深度伪造视频,以在选民眼中败坏他们的信誉。
支持其他候选人:制作名人或有影响力人士支持特定候选人的深度伪造视频,即使他们实际上并没有这样做。
制造谣言:制作候选人从事非法或不法活动的深度伪造视频,以散播怀疑并毁掉他们的声誉。
导致选举失去信心:制作选举舞弊的深度伪造视频,以破坏公众对选举结果准确性的信心。
在选举中使用极其逼真的深度伪造视频来操纵选民的危险在于其惊人的真实性。这些视频会诱使观众误以为他们正在目睹一场真实的事件,即使它完全是摆拍的。这可能会给民主带来严重问题,因为它会影响投票率和选举结果。
检测并防止深度伪造在选举中的使用是一项重大挑战。深度伪造检测技术正在发展,但尚不完善。各国已开始制定法律,以打击深度伪造的滥用,但这些法律的有效性尚不明朗。
这将使肉眼几乎无法区分事实与虚构。虽然一些工具可以帮助检测深度伪造,但它们尚未普及。例如,英特尔开发了一种实时深度伪造检测工具,该工具利用人工智能分析血流。然而,据BBC报道,这款名为FakeCatcher的工具迄今为止检测结果并不一致。
最重要的是提高公众对深度伪造的认识。人们需要知道,他们在社交媒体上看到或听到的视频可能并非真实,他们需要对可疑的信息保持警惕。通过教育公众,我们希望能够减少深度伪造对未来选举的影响。