Chuyển đổi số

AI có thể vượt khỏi tầm kiểm soát của con người

Phan Văn Hòa 08/02/2025 10:29

Các nhà khoa học hàng đầu thế giới cảnh báo rằng, nếu không được kiểm soát chặt chẽ, AI có thể vượt khỏi tầm kiểm soát của con người, gây ra hậu quả khôn lường.

Theo đó, hai nhà khoa học AI hàng đầu thế giới là Max Tegmark - Giáo sư tại Viện Công nghệ Massachusetts (Mỹ) và Giáo sư Yoshua Bengio tại Đại học Université de Montréal (Canada) đã cảnh báo rằng, trí tuệ nhân tạo tổng quát (Artificial General Intelligence: AGI) được thiết kế theo mô hình “đặc vụ” có thể trở nên nguy hiểm vì con người có nguy cơ mất kiểm soát hệ thống này.

Ảnh minh họa
Yoshua Bengio (trái) và Max Tegmark (phải) thảo luận về sự phát triển của AGI trong bản ghi podcast trực tiếp của chương trình “Beyond The Valley” của CNBC. Ảnh: CNBC

Theo họ, AGI là thuật ngữ dùng để chỉ các hệ thống AI có trí tuệ vượt trội hơn con người, với khả năng tư duy và ra quyết định độc lập. Nếu không có cơ chế kiểm soát chặt chẽ, những hệ thống này có thể hành động ngoài ý muốn của con người, dẫn đến những hậu quả không thể lường trước.

Nỗi lo ngại của các nhà khoa học xuất phát từ việc nhiều tập đoàn công nghệ lớn đang thúc đẩy khái niệm “Tác nhân AI” (AI agent), tức các chatbot có khả năng hoạt động như trợ lý số, hỗ trợ công việc và cuộc sống hàng ngày. Tuy nhiên, thời điểm AGI thực sự ra đời vẫn còn là dấu hỏi, với nhiều dự báo khác nhau.

Theo Yoshua Bengio, vấn đề nằm ở chỗ các hệ thống AI đang dần có “quyền tự quyết” và khả năng suy nghĩ độc lập. Chia sẻ trên podcast “Beyond The Valley” (tạm dịch: “Vượt ra ngoài Thung lũng Silicon”) của tờ CNBC ngày 4/2, ông giải thích: “Các nhà nghiên cứu AI lấy cảm hứng từ trí thông minh con người để xây dựng trí tuệ máy móc. Ở con người, trí thông minh không chỉ là khả năng hiểu thế giới mà còn bao gồm hành vi tác nhân, sử dụng kiến thức để đạt được mục tiêu”.

Bengio cảnh báo rằng đây chính là cách AGI đang được phát triển, trở thành những tác nhân có hiểu biết sâu rộng về thế giới và có khả năng hành động theo đó. Tuy nhiên, ông nhấn mạnh rằng điều này “thực sự rất nguy hiểm”.

Theo ông, việc theo đuổi mô hình này chẳng khác nào “tạo ra một loài mới” hoặc một “thực thể thông minh mới” trên Trái Đất mà con người không thể chắc chắn rằng chúng sẽ hành xử theo cách có lợi cho chúng ta.

“Chúng ta cần cân nhắc những kịch bản xấu nhất, và điểm mấu chốt luôn là yếu tố tác nhân. Nói cách khác, AI có thể có mục tiêu riêng, và chính điều đó có thể đẩy chúng ta vào rắc rối”.

Bengio còn cảnh báo rằng, AI có thể tự phát triển cơ chế tự bảo vệ khi ngày càng thông minh hơn, điều này có thể đặt nhân loại vào thế đối đầu.

“Liệu chúng ta có muốn cạnh tranh với những thực thể thông minh hơn mình không? Đây rõ ràng không phải một canh bạc an toàn. Chúng ta cần hiểu rõ cách mà khả năng tự bảo vệ có thể trở thành mục tiêu của AI”.

Theo Giáo sư Max Tegmark từ MIT, giải pháp an toàn nằm ở mô hình “AI công cụ”, tức là các hệ thống được thiết kế cho một nhiệm vụ cụ thể, không có vai trò như một tác nhân độc lập.

Ông lấy ví dụ về một công cụ AI có thể hỗ trợ tìm cách chữa ung thư hoặc một hệ thống xe tự lái. Những công nghệ này vẫn có thể sở hữu khả năng mạnh mẽ nhưng phải đảm bảo rằng con người có thể kiểm soát chúng với độ tin cậy cao.

“Tôi tin rằng, theo hướng lạc quan, chúng ta vẫn có thể khai thác hầu hết những lợi ích mà AI mang lại, miễn là áp dụng các tiêu chuẩn an toàn cơ bản trước khi triển khai rộng rãi các hệ thống AI mạnh mẽ”, Tegmark nhấn mạnh.

Theo ông, các công ty phải chứng minh rằng con người có thể kiểm soát AI trước khi thương mại hóa. Một khi nguyên tắc này được tuân thủ, ngành công nghiệp có thể nhanh chóng đổi mới để tìm ra những phương pháp triển khai AI an toàn hơn.

Ảnh minh họa1
AGI có thể vượt khỏi tầm kiểm soát của con người, gây ra hậu quả nghiêm trọng. Ảnh: Internet

Năm 2023, Viện Tương lai của sự sống do Tegmark sáng lập đã kêu gọi tạm dừng phát triển các hệ thống AI có thể sánh ngang hoặc vượt qua trí thông minh con người.

Dù lời kêu gọi này chưa thành hiện thực, ông cho rằng ít nhất chủ đề này đã được đưa vào thảo luận nhiều hơn, và đây là thời điểm quan trọng để hành động nhằm thiết lập các rào cản kiểm soát AGI.

“Nhiều người đang nói về vấn đề này, nhưng câu hỏi quan trọng là liệu chúng ta có thể khiến họ hành động hay không”, Tegmark chia sẻ trên podcast Beyond The Valley của CNBC.

Ông cảnh báo rằng: “Thật điên rồ nếu loài người tạo ra một thứ thông minh hơn chính mình mà chưa tìm ra cách kiểm soát nó”.

Dự đoán về thời điểm AGI xuất hiện vẫn còn nhiều tranh cãi, một phần do sự khác biệt trong cách định nghĩa AGI. Một số chuyên gia cho rằng AGI còn rất xa vời, trong khi những người khác tin rằng nó có thể ra đời trong vài năm tới.

Sam Altman, Giám đốc điều hành OpenAI, tuyên bố rằng công ty của ông đã nắm được cách xây dựng AGI và công nghệ này có thể ra mắt sớm hơn so với dự đoán của nhiều người. Tuy nhiên, ông cũng cố gắng giảm bớt sự cường điệu xung quanh tác động của AGI đối với xã hội.

Phát biểu vào tháng 12 vừa qua, Altman cho biết: “Tôi đoán chúng ta sẽ đạt được AGI sớm hơn hầu hết mọi người nghĩ, nhưng tác động của nó sẽ không quá lớn như nhiều người tưởng tượng”.

Dù không tiết lộ cụ thể về tiến độ phát triển AGI, tuyên bố của Altman cho thấy OpenAI đang tiến gần hơn đến mục tiêu này, đồng thời đặt ra nhiều câu hỏi về sự chuẩn bị của thế giới đối với sự xuất hiện của một hệ thống trí tuệ có khả năng ngang bằng hoặc vượt trội con người.

Theo CNBC
Copy Link

Mới nhất

x
AI có thể vượt khỏi tầm kiểm soát của con người
POWERED BY ONECMS - A PRODUCT OF NEKO