数字化转型

全球首部人工智能法将如何影响科技巨头?

潘文和 DNUM_BBZAIZCACE 8:00

2024年8月是欧盟《人工智能法案》正式生效的重要里程碑,开启了监管更加严格的新篇章,特别是针对科技巨头。

今年5月初,欧盟开创先例,通过了《人工智能法案》(AI Act),标志着人工智能监管领域的一个重要里程碑。成员国和立法机构的共识构建了一个全面的法律框架,有望重塑欧洲乃至全球人工智能的未来。

Ảnh minh họa.
插图照片。

什么是AI法案?

《人工智能法案》被认为是世界上最先进的人工智能法律之一,现已正式生效。该法案通过保护隐私、防止歧视和确保人工智能系统的透明度,不仅保障了公民的“基本权利”,还营造了健康的商业环境,鼓励人工智能领域的创新和投资。

与此同时,该法律也有望成为其他国家构建安全可靠的人工智能未来的路线图。该法律由欧盟委员会于2020年首次提出,旨在应对人工智能的负面影响,尤其是对美国大型科技公司的影响,这些公司目前是最先进的人工智能系统的主要建设者和开发者。

《人工智能法案》涵盖范围极其广泛,涵盖欧盟市场上所有使用人工智能的产品或服务,无论其来源地如何。从全球科技巨头到本土初创企业,所有企业都必须遵守这些新规。

“欧洲对待科技的态度以人为本,并确保人民的权利得到保护。通过《人工智能法案》,欧盟迈出了重要一步,确保欧洲的人工智能技术应用符合欧盟规则,”欧盟委员会执行副主席玛格丽特·维斯塔格表示。

与此同时,瑞士布鲁塞尔年利达律师事务所(Linklaters)科技、媒体和技术部门负责人Tanguy Van Overstraeten先生肯定了欧盟《人工智能法案》是全球人工智能监管的“历史性转折点”。这是一部开创性的法律,开启了人工智能技术管理的新时代,同时为从科技巨头到创新型初创企业的企业设定了全面的标准。他强调:“这部法律将对所有组织产生深远影响,尤其是那些开发、部署或仅仅使用人工智能系统的组织。”

《欧盟人工智能法案》采取了明智而灵活的方式,根据人工智能对社会造成的实际风险进行监管。这将确保不同的人工智能应用得到适当的监管,在鼓励创新的同时保护公民的权利。

对于被认为“高风险”的人工智能应用,法律规定了严格的要求,以最大程度地减少负面影响。具体而言,企业必须进行全面的风险评估,建立有效的风险缓解系统,使用高质量数据训练模型,并通过记录和与监管机构共享信息来确保运营透明化。

从自动驾驶汽车到医疗设备,再到关键决策系统,人工智能已成为现代生活不可或缺的一部分。然而,在带来巨大益处的同时,人工智能也带来了诸多伦理和法律挑战。

鉴于潜在的风险,各国已制定严格的法规来管控高风险的人工智能应用。自动驾驶汽车和医疗设备等系统必须遵守严格的安全性和有效性标准。

与此同时,那些可能对社会评分系统、犯罪预测和情绪识别造成严重社会影响的人工智能应用将被全面禁止。

《AI法案》对全球各大科技公司有何影响?

随着人工智能技术在全球范围内的强劲发展,微软、谷歌、亚马逊、苹果和 Meta 等美国巨头都积极与他们认为能够引领人工智能领域的公司合作,并向其投资了数十亿美元。

微软 Azure、亚马逊网络服务和谷歌云等云平台也在支持人工智能发展方面发挥着至关重要的作用,因为训练和运行人工智能模型需要大量的计算基础设施。

在这方面,大型科技公司无疑将成为新规最受关注的对象。

《人工智能法案》不仅限于欧盟,而是具有全球影响。任何活动与欧盟有直接或间接关联的组织都可能受到该法规的约束。

因此,大型科技公司在欧盟市场的业务运营将面临更严格的审查,特别是在用户个人数据的收集和使用方面。

由于担心违反欧盟《通用数据保护条例》(GDPR),Meta 决定暂时停止其 LLaMa 人工智能模型在欧洲市场的销售。尽管欧盟《人工智能法案》也提出了新的要求,但 GDPR 仍然是 Meta 谨慎做出此决定的主要因素。

由于担心可能违反 GDPR,该公司此前被勒令停止在欧盟使用 Facebook 和 Instagram 的帖子训练其模型。

企业技术巨头Salesforce的政府事务执行副总裁Eric Loeb表示:“欧洲基于风险的监管框架鼓励创新,同时优先考虑技术的安全开发和部署。其他国家政府在制定自身政策框架时也应该考虑这些规则。”

下一代人工智能如何处理?

欧盟《人工智能法案》将下一代人工智能(生成式人工智能)——通常是OpenAI的ChatGPT、谷歌的Gemini和Anthropic的Claude等先进的人工智能模型——确定为需要严格监管的对象。这些模型旨在执行各种任务,从生成文本内容到解决复杂问题,甚至在某些领域可以超越人类的能力。

为确保人工智能安全可信的开发和应用,欧盟人工智能法案对通用人工智能模型提出了严格的要求,包括遵守版权法、训练过程透明、确保网络安全等。

然而,人工智能开发人员担心过于严格的监管可能会限制开源模型的发展,而开源模型在促进创新和人工智能民主化方面发挥着关键作用。

当今开源人工智能社区中一些著名的名字包括 Meta 的 LLaMa、Stability AI 的 Stable Diffusion 和 Mistral AI 的 Mistral 7B。欧盟的《人工智能法案》制造了许多“漏洞”,使得开源人工智能模型能够获得特殊待遇。

然而,要享受这些激励措施,提供者必须完全透明地公开模型的结构和运行,并允许社区自由地对其进行研究和开发。然而,对社会构成重大风险的开源模型将无法享受这些激励措施。

违反《人工智能法案》规定的企业会受到哪些处罚?

违反欧盟人工智能法案的公司可能会面临巨额罚款,罚款金额从 3500 万欧元(4100 万美元)或全球年营业额的 7% 不等,具体取决于违规的严重程度和公司的规模。

值得注意的是,这甚至高于《通用数据保护条例》(GDPR)规定的罚款,违反GDPR最高可被处以2000万欧元(2340万美元)或相当于全球年收入4%的罚款,这表明欧盟对人工智能领域的要求非常严格。为了确保这些法规的有效执行,欧盟成立了欧洲人工智能办公室,负责对人工智能相关活动进行全面监督。

正如法国金融科技公司Linedata资产管理全球主管Jamil Jiva所言,这些重罚将对AI领域的违法行为起到强有力的震慑作用。

正如《通用数据保护条例》(GDPR)为数据保护设立了全球标准一样,《欧盟人工智能法案》正在塑造人工智能的未来。欧盟在建立连贯、全面的人工智能法律框架方面发挥着主导作用,确保该技术的安全、可靠和负责任地开发和部署。

然而,《人工智能法案》的全面实施仍需时日,许多重要法规要到2026年才能生效。这凸显了企业现在就开始准备以适应即将到来的重大变化的必要性。

对通用人工智能建模系统的限制将在《人工智能法案》生效 12 个月后开始适用,而像 OpenAI 的 ChatGPT 和谷歌的 Gemini 这样的生成人工智能系统将有 36 个月的时间来改进其系统以符合《人工智能法案》的规定。

据 CNBC 报道,Apnews
复制链接

特色义安报纸

最新的

x
全球首部人工智能法将如何影响科技巨头?
供电内容管理系统- 产品