Facebook即将做出重大改变以阻止极端主义帖子?
作为全球最大的社交网络,Facebook 面临着巨大的压力,需要限制其网站上仇恨信息、图片和视频的传播。
![]() |
| 插图照片。来源:法新社 |
9 月 17 日,Facebook 宣布了一系列旨在限制社交网络上的仇恨言论和极端主义的变革,扩大了恐怖组织的定义,并计划部署人工智能来检测和屏蔽大规模枪击事件的直播视频。
这家社交媒体公司还在扩大一项计划,该计划会将搜索极端主义内容的用户重定向到由帮助消除仇恨言论的组织运营的页面。
就在国会即将就Facebook、谷歌和推特如何处理暴力内容举行听证会的前一天,这项声明发布了。预计美国议员将质询这些社交媒体公司的高管,了解他们如何处理极端分子发布的内容。
作为全球最大的社交网络,Facebook一直面临着限制其网站上仇恨言论、图片和视频传播的巨大压力。此外,该社交网络还因未能发现并删除新西兰克赖斯特彻奇枪击案(造成51人死亡)的现场视频而受到严厉批评。
今年至少发生了三起大规模枪击事件,包括克赖斯特彻奇枪击案,这些事件的暴力计划都是事先在网络论坛8chan上公布的。本月,美国联邦议员对8chan的所有者进行了质询。
Facebook在公告中表示,克赖斯特彻奇的悲剧事件对其内容审核机制的更新产生了重大影响。
Facebook 还表示,它最近与微软、Twitter、谷歌和亚马逊制定了一项计划,以解决如何利用技术传播恐怖主义内容的问题。
Facebook长期以来一直标榜其过滤平台上恐怖主义相关内容的能力。这家社交媒体公司表示,过去两年里,它能够在被举报之前检测并删除99%的极端主义帖子——约2600万条内容。
负责打击 Facebook 上极端主义的团队已经发展到 350 人,其中包括执法、国家安全、反恐方面的专家以及研究极端主义的学者。
为了检测更多现实世界中的有害内容,Facebook 表示正在更新其人工智能,以便在直播的最初时刻更好地过滤暴力直播视频。
全球最大的社交网络表示,它已与美国和英国执法官员合作,从反恐训练项目中获取摄像头录像,以帮助其人工智能系统了解暴力事件的实际样貌。
自三月以来,Facebook 已将搜索与“白人至上”相关词语的用户重定向至“Life After Hate”等资源网站。“Life After Hate”是由前暴力极端分子创立的组织,旨在提供危机干预和援助。鉴于克赖斯特彻奇枪击案的发生,Facebook 正在将这项功能扩展到澳大利亚和印度尼西亚。



