“Siêu trí tuệ” đã trở thành từ khóa nóng trong cuộc đua AI giữa các gã khổng lồ như Meta, OpenAI và xAI của Elon Musk. Khi các công ty chạy đua phát triển mô hình ngôn ngữ lớn (LLM) mạnh hơn, làn sóng lo ngại từ giới khoa học và công chúng cũng ngày càng dâng cao.
Hơn 850 người - từ các nhà khoa học, lãnh đạo công nghệ đến học giả, chính trị gia và nhân vật công chúng - đã ký vào bản tuyên bố vừa được công bố hôm nay 22/10, kêu gọi tạm dừng mọi nỗ lực phát triển siêu trí tuệ cho đến khi công nghệ này được chứng minh là an toàn và có thể kiểm soát được.
Danh sách ký tên có sự góp mặt của Yoshua Bengio và Geoff Hinton, hai “cha đẻ” của trí tuệ nhân tạo hiện đại, cùng nhà nghiên cứu hàng đầu Stuart Russell của Đại học California, Berkeley. Ngoài giới học thuật, bản tuyên bố còn thu hút một liên minh rộng rãi gồm các học giả, giới truyền thông, các nhà lãnh đạo tôn giáo và cựu chính khách Mỹ như Mike Mullen, Susan Rice, Hoàng tử Harry và Meghan Markle.
Nhiều chuyên gia cảnh báo rằng, nếu không có cơ chế kiểm soát, AI loại này có thể gây hậu quả ở quy mô xã hội hoặc sinh tồn, ví dụ như: Thay thế hàng loạt công việc của con người, gây khủng hoảng lao động; Ảnh hưởng đến tự do, nhân phẩm và quyền riêng tư; Thậm chí, trong kịch bản xấu nhất, đe dọa sự tồn tại của loài người.
Họ yêu cầu chấm dứt việc phát triển siêu trí tuệ cho đến khi có đồng thuận khoa học và sự ủng hộ rộng rãi của công chúng. Một khảo sát từ Viện Future of Life được dẫn lại trong tuyên bố cho thấy, chỉ 5% người trưởng thành Mỹ ủng hộ việc phát triển nhanh và không kiểm soát AI siêu trí tuệ, trong khi đa số cho rằng công nghệ này chỉ nên được triển khai khi đã được chứng minh an toàn và có khung pháp lý rõ ràng.
Nhà khoa học Yoshua Bengio nhận định: “Các hệ thống AI có thể vượt qua con người trong hầu hết nhiệm vụ nhận thức chỉ trong vài năm tới. Dù điều này giúp giải quyết nhiều vấn đề toàn cầu, nó cũng mang lại rủi ro khôn lường. Chúng ta cần xác định cách thiết kế AI không thể gây hại cho con người, và đảm bảo công chúng có tiếng nói mạnh mẽ hơn trong việc định hình tương lai chung.”
Báo động đỏ về AI vượt kiểm soát
Tuyên bố lần này được xem là bước ngoặt trong nhận thức toàn cầu về rủi ro công nghệ, khi các tên tuổi hàng đầu đồng loạt lên tiếng. Nếu trước đây, cảnh báo về “AI vượt kiểm soát” chủ yếu đến từ vài cá nhân đơn lẻ như Elon Musk hay Hinton, thì nay, việc hình thành một tuyên bố tập thể quy mô quốc tế cho thấy nhân loại đang thật sự dừng lại để suy nghĩ về hướng đi của trí tuệ nhân tạo.
Không chỉ là một ChatGPT mạnh hơn, “siêu trí tuệ” là dạng AI có thể tự học, tự ra quyết định và tự điều chỉnh mục tiêu - đến mức con người không còn kiểm soát nổi. Với tốc độ phát triển hiện nay, nguy cơ mất cân bằng giữa đổi mới công nghệ và an toàn xã hội đang ngày càng rõ rệt.
Cuộc chia rẽ trong thế giới công nghệ
Sự kiện này cũng phơi bày cuộc chia rẽ sâu sắc trong ngành AI - giữa hai trường phái đối lập mà giới công nghệ gọi vui là “AI boomers” và “AI doomers”.
Một bên (“AI boomers”) tin rằng AI sẽ mang lại tiến bộ vượt bậc, từ năng suất kinh tế đến y học, và không nên kìm hãm sự đổi mới. Bên kia (“AI doomers”) cảnh báo rằng phát triển quá nhanh mà không có khuôn khổ quản lý sẽ dẫn tới thảm họa công nghệ, vượt ngoài khả năng con người kiểm soát.
Tuyên bố này nghiêng hẳn về “phe bi quan”, nhưng cũng thúc đẩy đối thoại toàn cầu về việc cần lập ra “quy tắc an toàn AI”, tương tự như quy chuẩn quốc tế cho năng lượng hạt nhân hay biến đổi khí hậu.
Ngay cả các lãnh đạo AI hàng đầu như Elon Musk và Sam Altman cũng từng cảnh báo về rủi ro này. Altman viết năm 2015 rằng “phát triển trí tuệ máy siêu nhân là mối đe dọa lớn nhất đối với sự tồn tại của nhân loại”. Musk thì thẳng thắn thừa nhận “có 20% khả năng nhân loại bị hủy diệt” nếu AI vượt kiểm soát.
Áp lực mới đối với chính phủ và doanh nghiệp
Với sức nặng từ hàng trăm tên tuổi có tầm ảnh hưởng, tuyên bố này được xem là lời cảnh tỉnh nghiêm túc gửi tới các chính phủ và tập đoàn công nghệ toàn cầu.
Các chuyên gia nhận định điều này có thể dẫn đến những đề xuất luật mới giới hạn sức mạnh mô hình AI, yêu cầu cơ chế giám sát minh bạch trong huấn luyện và vận hành, và thậm chí tạm hoãn một số dự án tiên tiến cho đến khi có tiêu chuẩn an toàn thống nhất.
Đây có thể là bước khởi đầu cho một khung đạo đức và pháp lý toàn cầu về AI - tương tự như các hiệp ước kiểm soát vũ khí hạt nhân trong thế kỷ 20.
Khi AI trở thành vấn đề của toàn nhân loại
Việc các nhà khoa học, chính trị gia, tôn giáo và hoàng gia cùng đứng chung một tuyên bố cho thấy: AI không còn là câu chuyện riêng của ngành công nghệ. Nó đã trở thành vấn đề sinh tồn của nhân loại và đặt ra câu hỏi lớn: liệu con người có đang tạo ra một thực thể vượt khỏi tầm kiểm soát của chính mình?
Nếu cuộc cách mạng công nghiệp đầu tiên thay đổi thế giới bằng máy hơi nước, thì cách mạng AI đang thách thức bản chất của quyền lực, tự do và cả nhân tính.
Tuyên bố này không chỉ là một lời kêu gọi tạm dừng công nghệ, mà là một dấu mốc trong tiến trình tự thức tỉnh của nhân loại trước kỷ nguyên siêu trí tuệ.
Tham khảo: CNBC
