Đạo luật trí tuệ nhân tạo đầu tiên trên thế giới có hiệu lực tác động thế nào đến các gã khổng lồ công nghệ?
Tháng 8/2024 đánh dấu một cột mốc quan trọng khi Đạo luật trí tuệ nhân tạo của Liên minh Châu Âu chính thức có hiệu lực, mở ra một chương mới với những quy định chặt chẽ hơn, đặc biệt đối với các ông lớn công nghệ.
Trước đó, vào tháng 5, Liên minh Châu Âu (EU) đã tạo ra một tiền lệ mới khi thông qua Đạo luật trí tuệ nhân tạo (Đạo luật AI), đánh dấu bước ngoặt quan trọng trong việc quản lý trí tuệ nhân tạo. Sự đồng thuận của các quốc gia thành viên và các cơ quan lập pháp đã tạo nên một khung pháp lý toàn diện, hứa hẹn sẽ định hình lại tương lai của AI tại châu Âu và trên toàn thế giới.
Đạo luật AI là gì?
Đạo luật AI, được xem là một trong những bộ luật tiên tiến nhất về AI trên thế giới, đã chính thức có hiệu lực. Bằng việc bảo vệ quyền riêng tư, ngăn chặn phân biệt đối xử và đảm bảo tính minh bạch của các hệ thống AI, đạo luật này không chỉ bảo vệ "các quyền cơ bản" của công dân mà còn tạo ra một môi trường kinh doanh lành mạnh, khuyến khích đổi mới và đầu tư trong lĩnh vực AI.
Đồng thời, đạo luật này cũng được kỳ vọng sẽ trở thành một tấm bản đồ định hướng cho các quốc gia khác trong việc xây dựng một tương lai AI an toàn và đáng tin cậy. Được Ủy ban Châu Âu đề xuất lần đầu tiên vào năm 2020, Đạo luật này nhằm giải quyết những tác động tiêu cực của AI, đặc biệt là đối với các công ty công nghệ lớn của Mỹ, những công ty hiện là những nhà xây dựng và phát triển chính các hệ thống AI tiên tiến nhất.
Đạo luật AI có phạm vi áp dụng cực kỳ rộng, bao trùm mọi sản phẩm hoặc dịch vụ sử dụng trí tuệ nhân tạo được cung cấp tại thị trường EU, bất kể nguồn gốc. Từ các gã khổng lồ công nghệ toàn cầu đến các công ty khởi nghiệp địa phương, tất cả đều phải tuân thủ những quy định mới này.
Phó Chủ tịch điều hành Ủy ban châu Âu Margrethe Vestager cho biết: “Cách tiếp cận công nghệ của châu Âu đặt con người lên hàng đầu và đảm bảo quyền của mọi người được bảo vệ. Với Đạo luật AI, EU đã thực hiện một bước quan trọng để đảm bảo rằng việc áp dụng công nghệ AI tuân thủ các quy tắc của EU tại châu Âu”.
Trong khi đó, ông Tanguy Van Overstraeten, đứng đầu bộ phận công nghệ, truyền thông và công nghệ của công ty luật Linklaters tại Brussels (Thụy Sỹ) đã khẳng định Đạo luật AI của EU là một “bước ngoặt lịch sử” trong quy định về trí tuệ nhân tạo trên toàn cầu. Đây là đạo luật tiên phong, mở ra một kỷ nguyên mới trong việc quản lý công nghệ AI, đồng thời đặt ra những chuẩn mực toàn diện cho các doanh nghiệp, từ những gã khổng lồ công nghệ đến các công ty khởi nghiệp sáng tạo. Ông nhấn mạnh: “Đạo luật này sẽ tác động sâu rộng đến mọi tổ chức, đặc biệt là những đơn vị đang phát triển, triển khai hoặc đơn thuần là sử dụng các hệ thống AI”.
Đạo luật AI của EU đã áp dụng một cách tiếp cận thông minh và linh hoạt, điều chỉnh AI dựa trên mức độ rủi ro thực tế mà chúng đặt ra cho xã hội. Nhờ đó, các ứng dụng AI khác nhau sẽ được quản lý một cách phù hợp, đảm bảo vừa khuyến khích đổi mới, vừa bảo vệ quyền lợi của người dân.
Đối với những ứng dụng AI được đánh giá là “rủi ro cao”, đạo luật đặt ra các yêu cầu nghiêm ngặt nhằm giảm thiểu tối đa các tác động tiêu cực. Cụ thể, các doanh nghiệp phải thực hiện đánh giá rủi ro toàn diện, xây dựng hệ thống giảm thiểu rủi ro hiệu quả, sử dụng dữ liệu chất lượng cao để huấn luyện mô hình, đồng thời minh bạch hóa quá trình hoạt động bằng cách ghi nhật ký và chia sẻ thông tin với cơ quan quản lý.
Từ xe tự lái, thiết bị y tế cho đến các hệ thống quyết định quan trọng, AI đã trở thành một phần không thể thiếu trong cuộc sống hiện đại. Tuy nhiên, cùng với những lợi ích to lớn, AI cũng đặt ra nhiều thách thức về đạo đức và pháp lý.
Nhận thức được những rủi ro tiềm ẩn, luật pháp đã đưa ra những quy định chặt chẽ để quản lý các ứng dụng AI rủi ro cao. Các hệ thống như xe tự lái, thiết bị y tế phải tuân thủ những tiêu chuẩn nghiêm ngặt về độ an toàn và hiệu quả.
Đồng thời, các ứng dụng AI có thể gây ra những hậu quả xã hội nghiêm trọng đối với hệ thống chấm điểm xã hội, dự đoán tội phạm và nhận dạng cảm xúc sẽ bị cấm hoàn toàn.
Đạo luật AI tác động thế nào đối với các công ty công nghệ lớn trên thế giới?
Những gã khổng lồ của Mỹ như Microsoft, Google, Amazon, Apple và Meta đã hợp tác tích cực và đầu tư hàng tỷ USD vào các công ty mà họ cho là có thể dẫn đầu về AI trong bối cảnh công nghệ này đang phát triển mạnh mẽ trên toàn cầu.
Các nền tảng đám mây như Microsoft Azure, Amazon Web Services và Google Cloud cũng đóng vai trò quan trọng trong việc hỗ trợ phát triển AI, do cần có cơ sở hạ tầng điện toán khổng lồ để đào tạo và vận hành các mô hình AI.
Về mặt này, các công ty công nghệ lớn chắc chắn sẽ là những cái tên bị nhắm mục tiêu nhiều nhất theo các quy định mới.
Đạo luật AI không chỉ giới hạn trong phạm vi EU mà còn có tầm ảnh hưởng toàn cầu. Bất kỳ tổ chức nào có hoạt động liên quan đến EU, dù trực tiếp hay gián tiếp, đều có thể phải tuân thủ quy định này.
Như vậy, các công ty công nghệ lớn sẽ phải đối mặt với sự giám sát gắt gao hơn về hoạt động kinh doanh tại thị trường EU, đặc biệt là trong việc thu thập và sử dụng dữ liệu cá nhân của người dùng.
Do những lo ngại về việc tuân thủ Quy định Bảo vệ dữ liệu chung (GDPR) của EU, Meta đã quyết định tạm dừng cung cấp mô hình AI LLaMa tại thị trường châu Âu. Mặc dù Đạo luật AI của EU cũng đặt ra những yêu cầu mới, nhưng GDPR vẫn là yếu tố chính khiến Meta thận trọng trong quyết định này.
Trước đó, công ty đã bị yêu cầu dừng việc đào tạo các mô hình của mình trên các bài đăng từ Facebook và Instagram tại EU do lo ngại có thể vi phạm GDPR.
Eric Loeb, Phó Chủ tịch điều hành phụ trách chính phủ của gã khổng lồ công nghệ doanh nghiệp Salesforce cho biết: “Khung quy định dựa trên rủi ro của châu Âu giúp khuyến khích đổi mới đồng thời ưu tiên phát triển và triển khai công nghệ một cách an toàn. Các chính phủ khác nên xem xét những quy tắc này khi xây dựng khung chính sách riêng của mình”.
Trí tuệ nhân tạo thế hệ mới được xử lý như thế nào?
Đạo luật AI của EU đã xác định trí tuệ nhân tạo thế hệ mới (AI tạo sinh), điển hình là các mô hình AI tiên tiến như ChatGPT của OpenAI, Gemini của Google và Claude của Anthropic, là những đối tượng cần được quản lý chặt chẽ. Các mô hình này được thiết kế để thực hiện đa dạng các nhiệm vụ, từ sáng tạo nội dung văn bản đến giải quyết các vấn đề phức tạp, thậm chí có thể vượt qua khả năng của con người trong một số lĩnh vực.
Để đảm bảo sự phát triển và ứng dụng AI một cách an toàn và đáng tin cậy, Đạo luật AI của EU đã đặt ra những yêu cầu khắt khe đối với các mô hình AI đa năng, bao gồm việc tuân thủ luật bản quyền, minh bạch trong quá trình đào tạo và đảm bảo an ninh mạng.
Tuy nhiên, các nhà phát triển AI lo ngại rằng các quy định quá chặt chẽ có thể hạn chế sự phát triển của các mô hình mã nguồn mở, vốn đóng vai trò quan trọng trong việc thúc đẩy đổi mới và dân chủ hóa AI.
Những cái tên tiêu biểu trong làng AI mã nguồn mở hiện nay có thể kể đến LLaMa của Meta, Stable Diffusion của Stability AI và Mistral 7B của Mistral AI. Đạo luật AI của EU đã tạo ra một số "lỗ hổng" cho phép các mô hình AI mã nguồn mở được ưu đãi đặc biệt.
Tuy nhiên, để được hưởng những ưu đãi này, các nhà cung cấp phải minh bạch hoàn toàn về cấu trúc và cách hoạt động của mô hình, đồng thời cho phép cộng đồng tự do nghiên cứu và phát triển dựa trên đó. Tuy nhiên, các mô hình mã nguồn mở tiềm ẩn những rủi ro lớn cho xã hội sẽ không được hưởng những ưu đãi này.
Mức phạt cho các công ty vi phạm quy định của Đạo luật AI?
Việc vi phạm Đạo luật AI của EU có thể khiến các công ty phải đối mặt với những khoản phạt "khủng". Cụ thể, mức phạt có thể lên tới 35 triệu euro (41 triệu USD) hoặc 7% doanh thu toàn cầu hàng năm, tùy thuộc vào mức độ nghiêm trọng của vi phạm và quy mô của công ty bị phạt.
Điều đáng chú ý là mức phạt này còn cao hơn so với mức phạt áp dụng theo GDPR. Theo đó, các công ty phải đối mặt với mức phạt lên tới 20 triệu euro (23,4 triệu USD) hoặc 4% doanh thu toàn cầu hàng năm vì vi phạm GDPR, cho thấy EU đang đặt ra những yêu cầu rất nghiêm ngặt đối với lĩnh vực AI. Để đảm bảo việc thực thi hiệu quả các quy định này, EU đã thành lập Văn phòng AI châu Âu, chịu trách nhiệm giám sát toàn diện các hoạt động liên quan đến AI.
Như ông Jamil Jiva, Giám đốc toàn cầu về quản lý tài sản tại công ty công nghệ tài chính Linedata (Pháp) đã nhận định, những hình phạt nặng nề này sẽ là một rào cản mạnh mẽ đối với các hành vi vi phạm pháp luật trong lĩnh vực AI.
Cũng giống như GDPR đã đặt ra tiêu chuẩn toàn cầu về bảo vệ dữ liệu, Đạo luật AI của EU đang định hình tương lai của AI. EU đang chứng tỏ vai trò tiên phong trong việc thiết lập một khuôn khổ pháp lý chặt chẽ và toàn diện cho AI, nhằm đảm bảo rằng công nghệ này được phát triển và ứng dụng một cách an toàn, đáng tin cậy và có trách nhiệm.
Tuy nhiên, việc thực hiện đầy đủ các quy định của Đạo luật AI sẽ mất một thời gian, với nhiều quy định quan trọng sẽ có hiệu lực vào năm 2026. Điều này cho thấy sự cần thiết của việc các doanh nghiệp bắt đầu chuẩn bị từ bây giờ để thích ứng với những thay đổi lớn sắp tới.
Các hạn chế đối với các hệ thống mô hình AI đa năng sẽ bắt đầu được áp dụng sau 12 tháng kể từ khi Đạo luật AI có hiệu lực. Trong khi các hệ thống AI tạo sinh như ChatGPT của OpenAI và Gemini của Google sẽ có thời gian 36 tháng để hoàn thiện hệ thống nhằm tuân thủ các quy định của Đạo luật AI.