2024年,深度伪造诈骗案件将会增加。
(Baonghean.vn)——据数据验证公司 Sumsub(英国)称,2022 年至 2023 年期间,全球深度伪造的数量增加了 10 倍,其中亚太地区 (APAC) 的深度伪造数量增加了 1530%。
什么是深度伪造?
Deepfake一词由“深度学习”(Deep Learning)和“伪造”(Fake)组合而成,指的是一种能够模拟人脸图像并制作虚假音频、图像甚至视频产品的技术。Deepfake制作者可以篡改媒体内容,并将其替换为真人的外观。

本质上,深度伪造技术建立在谷歌公司的开源机器学习技术平台之上。深度伪造技术会扫描一个人的视频和肖像照片,然后利用人工智能(AI)技术将其与另一个视频融合,并将眼睛、嘴巴、鼻子等面部细节替换为真实的面部动作和声音。
原始图像越多,人工智能就能学习到越多的数据,从而创建出更逼真的虚假图像或视频。深度伪造技术可以将一个人的脸叠加到另一个人的视频中,效果惊人地逼真。
深度伪造技术将在2024年大选中增加。
利用深度伪造技术冒充政治人物的做法越来越普遍,尤其是在2024年这个历史上规模最大的全球选举年。
据报道,今年至少有 60 个国家和全球超过 40 亿人将参加投票,选举他们的领导人和代表,这使得深度伪造技术成为一个令人严重担忧的问题。
根据Sumsub的报告,包括社交媒体平台和数字广告在内的网络媒体在2021年至2023年间身份盗窃案件增幅最大,达到274%。医疗保健、交通运输和游戏等行业也受到身份盗窃的影响。
此外,美国网络安全技术公司 CrowdStrike 在一份关于 2024 年全球威胁的报告中表示,由于今年将举行大量选举,可能会出现虚假信息和/或谣言,以制造不稳定局面。
因此,在2月14日印尼大选前,社交网络上流传着一段视频,视频中已故总统苏哈托正在支持他曾担任主席的政党。然而,这段视频被证实是由人工智能制作的深度伪造视频,完全复制了苏哈托的面部和声音。仅在社交网络平台X(前身为Twitter)上,这段深度伪造视频就吸引了470万次观看。
这并非深度伪造视频首次出现。在巴基斯坦,选举期间曾出现一段针对前总理伊姆兰·汗的深度伪造视频,暗示他的政党将抵制选举。与此同时,在美国,新罕布什尔州的选民突然遭到一则假新闻的狂轰滥炸,该新闻称总统乔·拜登要求他们不要参加初选投票。
专家表示,大多数深度伪造视频都是由一国境内的人员制作的。新加坡政策研究所文化与社会部门研究员兼主管卡罗尔·孙(Carol Soon)指出,这些国内人员可能包括政治对手、反对派人士,或者极右翼和极左翼人士。
与此同时,新加坡国家人工智能计划人工智能项目管理高级总监西蒙·切斯特曼先生表示,亚洲在法律、技术和教育三个方面尚未准备好解决选举中的深度伪造问题。
深度伪造技术有哪些危险?
卡罗尔·苏恩在评论深度伪造技术带来的危险时表示,深度伪造技术至少会污染信息生态系统,使人们难以找到准确的信息,也难以对某个政党或候选人形成有见地的观点。
西蒙·切斯特曼表示,如果选民看到有关丑闻的内容在社交媒体上迅速传播,而尚未被辟谣,他们也可能会因此而疏远某位候选人。虽然一些政府拥有打击网络虚假信息的工具,但令人担忧的是,真相在被纠正之前就已经被扭曲了。
切斯特曼说:“我们已经看到,涉及泰勒·斯威夫特的深度伪造色情内容能以多么快的速度占领X平台(以前称为Twitter)。这些东西传播速度惊人。”他还补充说,相关措施往往不足,而且极难执行。“通常为时已晚。”
网络安全技术公司 CrowdStrike 的 Adam Meyers 表示,深度伪造技术还会引发确认偏差,这是人们信息处理过程中的一种效应。“即使他们内心深处知道这不是真的,但如果这是他们想要的信息,是他们想要相信的,他们仍然会接受它,”他解释道。
切斯特曼先生还表示,令人担忧的是,一段伪造的视频如果记录了选举舞弊行为(例如塞票),可能会导致选民对选举的有效性失去信心。
Soon女士表示,候选人可以通过声称有关他们的负面信息都是捏造的来否认有关他们的真实情况。
顶尖科技公司承诺努力打击深度伪造技术
去年二月,包括微软、Meta、谷歌、亚马逊、IBM 在内的 20 家领先的科技公司,以及人工智能公司 OpenAI 和 Snap、TikTok 和 X 等社交媒体公司,共同承诺打击利用人工智能在今年的选举中作弊的行为。
这项联合承诺是重要的第一步,但其有效性取决于落实和执行。Soon表示,这需要科技公司采取多管齐下的方法,在其平台上实施不同的措施。科技公司还需要确保其决策的透明度,例如其遵循的流程。
然而,西蒙·切斯特曼先生认为,期望私营公司履行基本的社会职能并不过分。决定哪些内容可以出现在社交网络上是一个艰难的决定,有些公司甚至需要几个月的时间才能做出决定。
为了实现这一目标,内容认证与验证联盟(C2PA)推出了一个专门用于验证数字内容的平台。该平台允许用户获取经过验证的信息,例如内容的创作者信息、创作来源和时间,以及信息的通用性或是否由人工智能生成等信息。
C2PA成员公司包括Adobe、微软、谷歌和英特尔。OpenAI今年早些时候宣布,将为其DALL·E 3图像生成语言模型生成的图像部署C2PA认证技术。
今年1月,OpenAI创始人兼首席执行官萨姆·奥特曼在世界经济论坛期间接受彭博社采访时表示,该公司致力于确保其技术不被用于操纵选举。
网络安全公司 CrowdStrike 的 Adam Meyers 提议创建一个非营利、非党派的技术组织,专门分析和识别深度伪造内容。“公众可以将他们怀疑被篡改的内容发送给该组织。沟通起来并不容易,但至少会有一个值得信赖的机制,”Meyers 说。
但归根结底,虽然技术是解决方案的一部分,但很大程度上取决于用户。公众需要提高警惕,除了在发现可疑信息时进行事实核查外,用户还需要核实重要信息,尤其是在与他人分享之前。


