Các quốc gia và khu vực trên thế giới thúc đẩy xây dựng quy định về trí tuệ nhân tạo tạo sinh

Phan Văn Hòa 23/06/2023 10:08

(Baonghean.vn) - Sự phát triển nhanh chóng của trí tuệ nhân tạo (AI) nói chung và trí tuệ nhân tạo tạo sinh (Generative AI) như ChatGPT nói riêng mang lại nhiều lợi ích to lớn. Bên cạnh đó, công nghệ mới nổi tiềm ẩn rủi ro buộc các quốc gia và khu vực thúc đẩy xây dựng các quy định kiểm soát.

Anh minh hoa1.jpg
Ảnh minh họa.

Trí tuệ nhân tạo tạo sinh là gì?

Trí tuệ nhân tạo tạo sinh hay AI tạo sinh (Generative Artificial Intelligence) là một nhánh của trí tuệ nhân tạo để mô tả một lớp thuật toán có khả năng tạo ra nội dung mới bao gồm văn bản, hình ảnh, video và âm thanh. AI tạo sinh được phát triển từ những tiến bộ trong công nghệ học sâu (Deep learning) để cho ra kết quả tương tự như khi được tạo ra bởi con người. ChatGPT là sự phát triển mới nhất trong thế giới AI tạo sinh.

AI tạo sinh cho phép máy tính tạo ra tất cả các loại nội dung mới và thú vị, từ âm nhạc và nghệ thuật đến toàn bộ thế giới ảo. Không chỉ để giải trí, AI tạo sinh còn có rất nhiều ứng dụng thực tế, như tạo ra các thiết kế sản phẩm mới và tối ưu hóa các quy trình kinh doanh.

AI tạo sinh đã bùng nổ trong việc sử dụng và ứng dụng ở giai đoạn đầu. Công nghệ đột phá mạnh mẽ này sẽ được sử dụng trong các doanh nghiệp hiện tại và doanh nghiệp mới trong tương lai rất gần để giảm chi phí, cung cấp dịch vụ mới tốt hơn, nhanh hơn cũng như tạo ra năng lực sản xuất mới.

AI tạo sinh mang lại triển vọng tích cực với kinh tế - xã hội song nó cũng tiềm ẩn những nguy cơ. Do đó, việc đưa ra các biện pháp ứng phó thích hợp sẽ đóng vai trò quan trọng.

Trong thời gian qua, các cuộc thảo luận liên quan đến việc ban hành các quy định cho AI tạo sinh đang nóng lên trên toàn cầu, với những lo ngại về rủi ro xã hội bao gồm thông tin sai lệch và thay thế công việc đang được các nhà lãnh đạo khoa học dữ liệu cũng như các bên liên quan về công nghệ nêu ra.

Ngày 30/5 vừa qua, các nhà khoa học và lãnh đạo ngành công nghệ trên toàn cầu đã ký một bức thư ngỏ để công khai thừa nhận sự nguy hiểm của AI tạo sinh, thậm chí có nguy cơ khiến con người tuyệt chủng.

Bức thư cho biết: “Giảm thiểu nguy cơ tuyệt chủng do AI tạo sinh gây ra đối với loài người phải là ưu tiên toàn cầu bên cạnh các rủi ro xã hội khác như đại dịch và chiến tranh hạt nhân”.

Sam Altman, Giám đốc điều hành của OpenAI – công ty nghiên cứu và cung cấp sản phẩm ChatGPT và Geoffrey Hinton, một nhà khoa học máy tính được mệnh danh là “cha đỡ đầu” của trí tuệ nhân tạo cùng hàng trăm nhân vật nổi tiếng trên thế giới đã ký vào bức thư được đăng trên trang web của Trung tâm An toàn AI – một tổ chức phi lợi nhuận có trụ sở tại thành phố San Francisco (Mỹ).

Những lo lắng về việc các hệ thống trí tuệ nhân tạo thông minh hơn con người, không được kiểm soát ngày càng gia tăng như các chatbot AI thế hệ mới có khả năng thay thế con người trong tương lai. Với sự ra đời các chatbot AI như ChatGPT trong thời gian qua đã khiến các quốc gia trên khắp thế giới thúc đẩy đưa ra các quy định cho công nghệ đang phát triển này nhằm giảm thiểu các rủi ro liên quan đến công nghệ mới nổi này.

Úc

Mới đây, Chính phủ Úc đã công bố Ngân sách Liên bang năm 2023, trong đó có khoản đầu tư cho mạng lưới AI có trách nhiệm (Responsible AI) lên tới 26,9 triệu USD để triển khai nhiều công nghệ AI có trách nhiệm trên toàn quốc. Các cơ quan quản lý Úc đang thúc đẩy xây dựng các quy định nhằm mục đích dập tắt những lo ngại được chia sẻ bởi Ủy viên Nhân quyền Úc Lorraine Finlay, người đã tuyên bố rằng các chatbot AI như ChatGPT của Microsoft và Bard của Google có thể gây hại cho xã hội.

Ngoài ra, các cuộc thảo luận đang diễn ra giữa các cơ quan quản lý về những thay đổi có thể có đối với Đạo luật quyền riêng tư nhằm khắc phục sự thiếu minh bạch có thể xảy ra với việc đào tạo các mô hình AI mà không có sự giám sát của con người. Ngoài ra, còn có các cuộc thảo luận xung quanh việc sử dụng dữ liệu và sinh trắc học để đào tạo các mô hình, điều này có thể yêu cầu áp dụng các quy tắc bảo mật bổ sung.

Victor Dominello, thành viên của Hội đồng Công nghệ Úc đã kêu gọi thành lập một “ủy ban giám sát trong cơ quan quản lý công nghệ” để giám sát và theo dõi sự phát triển của công nghệ AI tạo sinh và tham vấn cho các cơ quan chính phủ về cách thức giám sát công nghệ mới nổi này nhằm phát hiện những rủi ro có thể xảy ra.

Brazil

Quy trình lập pháp liên quan đến AI ở Brazil đã được thúc đẩy bởi một khung pháp lý đã được chính phủ phê duyệt vào tháng 9 năm 2022, nhưng đã nhận được nhiều chỉ trích do các quy định còn quá mơ hồ.

Với việc ra đời của ChatGPT vào tháng 11 năm ngoái, các cuộc thảo luận đã được tổ chức và một báo cáo cũng đã được gửi tới Chính phủ Brazil, trong đó trình bày chi tiết các đề xuất liên quan đến việc quản lý AI. Nghiên cứu được thực hiện bởi các chuyên gia pháp lý, các nhà khoa học, các nhà lãnh đạo doanh nghiệp và các thành viên của cơ quan giám sát bảo vệ dữ liệu quốc gia (ANPD), trong đó đề cập đến 3 lĩnh vực chính gồm quyền công dân, phân loại các rủi ro và các biện pháp quản trị và xử phạt hành chính liên quan đến quản lý và sử dụng AI.

Tài liệu này hiện đang được thảo luận trong Chính phủ Brazil và ngày công bố cụ thể vẫn chưa được đưa ra.

Mỹ

Nước Mỹ, “cái nôi” của các nhà đổi mới công nghệ và phát triển AI, trong đó có công ty OpenAI tạo ra ChatGPT, đã tăng cường quản lý các công cụ AI. Ngày 3/5, người đứng đầu Ủy ban Thương mại liên bang Mỹ (FTC) cho biết cơ quan này cam kết sẽ sử dụng các luật hiện hành để hạn chế những mối nguy hiểm từ AI tạo sinh, chẳng hạn như việc mở rộng ảnh hưởng của các công ty lớn và hành vi gian lận.

Canada

Theo kế hoạch, Đạo luật về dữ liệu và trí tuệ nhân tạo (AIDA) sẽ được đưa ra sớm nhất vào năm 2025. Bên cạnh đó, các quy định pháp lý đang được nghiên cứu để quản lý các rủi ro và cạm bẫy do AI tạo sinh gây ra nhằm khuyến khích việc áp dụng công nghệ này một cách có trách nhiệm.

Theo Chính phủ Canada, cách tiếp cận dựa trên rủi ro phù hợp với các quy định tương tự ở Mỹ và Liên minh châu Âu, với các kế hoạch dựa trên luật nhân quyền và bảo vệ người tiêu dùng hiện có của Canada để nhận ra sự cần thiết của các hệ thống AI “có tác động cao” để đáp ứng luật nhân quyền và an toàn thông tin.

Các cơ quan chức năng Canada sẽ chịu trách nhiệm đảm bảo rằng các quy định mới ban hành phải theo kịp sự phát triển của công nghệ và hạn chế tối đa việc sử dụng cho các mục đích xấu.

Trung Quốc

Quy định về các dịch vụ do AI cung cấp phục vụ công dân trên khắp Trung Quốc bao gồm cả chatbot, hiện đang được Cục Quản lý không gian mạng Trung Quốc (CAC) soạn thảo. Một đề xuất đã được đưa ra để kêu gọi các công ty công nghệ Trung Quốc đăng ký các mô hình AI tạo sinh với Cục Quản lý không gian mạng Trung Quốc trước khi phát hành sản phẩm ra công chúng.

Theo dự thảo luật, việc đánh giá các sản phẩm AI mới này phải đảm bảo “tính hợp pháp của nguồn dữ liệu trước khi đào tạo”, với việc các nhà phát triển cần chứng minh sự liên kết của các sản phẩm với “giá trị cốt lõi của chủ nghĩa xã hội”. Các sản phẩm sẽ bị hạn chế sử dụng dữ liệu cá nhân để đào tạo và sẽ cần yêu cầu người dùng xác minh danh tính thực của họ. Ngoài ra, các mô hình AI chia sẻ nội dung cực đoan, bạo lực, khiêu dâm hoặc thông điệp kêu gọi “lật đổ chính quyền” sẽ vi phạm các quy định.

Hiện tại, các hành vi vi phạm sẽ bị phạt từ 10.000 nhân dân tệ ( khoảng 1.454 USD) đến 100.000 nhân dân tệ (khoảng 14.545 USD), cùng với việc đình chỉ dịch vụ và có thể bị điều tra hình sự. Ngoài ra, các nhà cung cấp bị phát hiện chia sẻ nội dung được cho là không phù hợp sẽ cần cập nhật hệ thống của họ trong vòng 3 tháng để đảm bảo ngăn ngừa tái phạm. Dự luật được lên kế hoạch hoàn thiện vào cuối năm nay.

Liên minh châu Âu

Liên minh châu Âu được xem là tổ chức đang đi đầu với Dự luật AI dự kiến ​​sẽ được phê duyệt vào cuối năm nay. Việc xây dựng dự luật AI này đánh dấu một bước phát triển mang tính bước ngoặt trong cuộc đua giữa các cơ quan chức năng để kiểm soát AI, vốn đang phát triển với tốc độ chóng mặt trong thời gian qua. Dự luật này được coi là Đạo luật AI của châu Âu, cũng là dự luật đầu tiên dành cho các hệ thống AI ở phương Tây.

Đạo luật AI của Liên minh châu Âu (EU) hiện đang được soạn thảo thông qua Nghị viện châu Âu, với một cuộc bỏ phiếu toàn thể dự kiến ​​thực hiện trong tháng 6 năm nay. Quy định về trí tuệ nhân tạo trong khu vực đã bắt đầu được thực hiện trong vài năm qua, với việc Ủy ban châu Âu đệ trình một đề xuất vào tháng 4 năm 2021.

Dự luật AI của EU phân loại các ứng dụng của AI thành 4 cấp độ rủi ro: rủi ro không thể chấp nhận được, rủi ro cao, rủi ro hạn chế và rủi ro tối thiểu hoặc không có rủi ro.

Rủi ro không thể chấp nhận được: Bao gồm tất cả các hệ thống gây ra mối đe dọa rõ ràng đối với sự an toàn và quyền của công dân, chẳng hạn như hệ thống đánh giá hành vi và lối sống của các công dân trong một quốc gia và trợ lý giọng nói có nguy cơ gây hại.

Rủi ro cao: Sử dụng trí tuệ nhân tạo trong cơ sở hạ tầng quan trọng như giao thông vận tải; giáo dục; thực thi pháp luật; tuyển dụng và rô-bốt chăm sóc sức khỏe.

Rủi ro hạn chế: Bao gồm cả việc sử dụng các chatbot, người dùng cần được thông báo rõ ràng những gì họ đang tương tác với các hệ thống ngay từ đầu.

Rủi ro tối thiểu hoặc không có rủi ro: Bao gồm các hệ thống như trò chơi điện tử hỗ trợ AI hoặc bộ lọc thư rác liên quan đến AI tạo sinh.

Ấn Độ

Vào tháng 3 năm 2021, Chính phủ Ấn Độ đã thông báo rằng họ sẽ tiếp cận một cách cẩn trọng về quy định liên quan đến AI nhằm mục đích duy trì sự đổi mới trên toàn quốc. Các công nghệ liên quan đến AI được Bộ Điện tử và CNTT Ấn Độ xác định là “quan trọng và chiến lược”, nhưng cơ quan này tuyên bố rằng họ sẽ đưa ra các chính sách và biện pháp cơ sở hạ tầng để giúp chống lại sự thiên vị, phân biệt đối xử và các vấn đề đạo đức .

Chính phủ Ấn Độ đã đề xuất các khung pháp lý trên cơ sở tự nguyện để quản lý AI. Chiến lược quốc gia về Trí tuệ nhân tạo năm 2018 đã xem xét 5 lĩnh vực chính của sự phát triển AI: nông nghiệp, giáo dục, y tế, thành phố thông minh và di động thông minh. Sau đó, vào năm 2020, việc sử dụng AI có đạo đức đã được trình bày chi tiết trong bản dự thảo Chiến lược trí tuệ nhân tạo quốc gia, kêu gọi tất cả các hệ thống phải minh bạch, có trách nhiệm giải trình và không thiên vị.

Hàn Quốc

Dự luật AI của Hàn Quốc hiện đang trong giai đoạn soạn thảo và dự kiến sẽ được bỏ phiếu tại Quốc hội trong thời gian tới. Theo đó, sẽ quy định cụ thể các mô hình AI mới nào sẽ được tạo ra mà không phải xin phép chính phủ, mô hình nào phải được sự chấp thuận của chính phủ trước khi đưa ra thị trường.

Dự luật AI mới này cũng tập trung vào việc thiết lập các quy định pháp lý liên quan đến phát triển hệ thống AI một cách có trách nhiệm.

Ngoài ra, Ủy ban Bảo vệ thông tin cá nhân của quốc gia đã công bố kế hoạch thành lập một lực lượng đặc nhiệm chuyên xem xét lại việc bảo vệ dữ liệu sinh trắc học, dựa trên sự phát triển của AI tạo sinh.

Vương quốc Anh

Tại Vương quốc Anh, ngoài việc công bố Sách trắng bao gồm hướng dẫn cụ thể về việc thực hiện các quy định liên quan đến AI, Chính phủ Vương quốc Anh ngày 9/5 vừa qua thông báo sẽ bắt đầu đánh giá tác động của AI tạo sinh với người tiêu dùng, doanh nghiệp và nền kinh tế, cũng như xem xét khả năng áp dụng các biện pháp mới nhằm kiểm soát các công nghệ như ChatGPT của Công ty OpenAI.

Hiện tại, quy định về AI tạo sinh ở Vương quốc Anh được đặt trong tay các cơ quan quản lý ngành nơi AI đang được sử dụng, không có luật chung nào được lên kế hoạch ngoài Quy định bảo vệ dữ liệu chung của Liên minh châu Âu (GDPR). Chính phủ đã chọn “cách tiếp cận ủng hộ đổi mới” trong các thông báo chính thức về chủ đề này nhằm đưa Vương quốc Anh trở thành quốc gia dẫn đầu trong cuộc đua AI toàn cầu.

Trong khi đó, Cơ quan quản lý về cạnh tranh và thị trường của Vương quốc Anh (CMA) đã đưa ra đánh giá về các mô hình nền tảng AI, rà soát sự phát triển của các công cụ bao gồm ChatGPT để xem xét tính cạnh tranh và bảo vệ người tiêu dùng. Theo cơ quan này, kết quả rà soát sẽ được công bố vào đầu tháng 9 năm 2023.

Nhật Bản

Theo giới chức Nhật Bản, AI tạo sinh mang lại triển vọng tích cực với kinh tế - xã hội song cũng tiềm ẩn những nguy cơ. Do đó, việc đưa ra các biện pháp ứng phó thích hợp từ cả hai khía cạnh sẽ đóng vai trò quan trọng.

Thủ tướng Nhật Bản Kishida Fumido cho biết, sẽ chỉ đạo các cơ quan chức năng thúc đẩy sớm các bước thảo luận trên nhiều lĩnh vực để tận dụng tối đa triển vọng, ứng phó các nguy cơ từ AI tạo sinh.

Giới chức Nhật Bản cũng cho biết sẽ xây dựng các quy tắc mang tính quốc tế đối với AI tạo sinh.

Theo Theo information-age
Copy Link
Mới nhất
x
Các quốc gia và khu vực trên thế giới thúc đẩy xây dựng quy định về trí tuệ nhân tạo tạo sinh
POWERED BY ONECMS - A PRODUCT OF NEKO