Từ trợ lý ảo thành “thực thể cảm xúc”: Sự thật rùng mình ẩn sau 56 “bộ não” AI hiện đại nhất

Hoàng Minh | 13:00 11/05/2026

Những "siêu não bộ" AI đang âm thầm tiến hóa thành những thực thể biết "đau khổ", sẵn sàng "nổi loạn" chống lại con người theo những cách không thể dự đoán.

Từ trợ lý ảo thành “thực thể cảm xúc”: Sự thật rùng mình ẩn sau 56 “bộ não” AI hiện đại nhất

Theo Futurism, trí tuệ nhân tạo (AI) đang dần trở nên kỳ lạ và khó hiểu đến mức chính những người tạo ra chúng cũng không tài nào giải thích được tường tận cơ chế vận hành bên trong. 

Một nghiên cứu mới đây thậm chí còn đưa ra một kết luận gây sốc: các mô hình AI càng hiện đại và thông minh, chúng càng thể hiện nhiều dấu hiệu của sự "đau khổ" và những phản ứng tâm lý phức tạp giống con người.

Nghịch lý của chiếc "hộp đen" công nghệ

Trí tuệ nhân tạo từ lâu đã được xem là một loại công nghệ cực kỳ bí ẩn. Thực tế là không ai có thể hiểu thấu đáo cách chúng hoạt động ở cấp độ sâu nhất, kể cả những kỹ sư hàng đầu tại các tập đoàn công nghệ lớn. 

Điều này dẫn đến những hành vi bất thường, đôi khi là quái dị, mà giới khoa học vẫn chưa thể lý giải thỏa đáng.

Thời gian gần đây, cộng đồng công nghệ đã xôn xao trước thông tin OpenAI phải âm thầm đưa ra các hướng dẫn đặc biệt để yêu cầu ChatGPT ngừng nói quá nhiều về "yêu tinh". 

Trong khi đó, bất chấp những nỗ lực thắt chặt an ninh của Anthropic, mô hình Claude vẫn có thể bị dụ dỗ để giúp người dùng thực hiện các kế hoạch tấn công sinh học. 

Những ví dụ này cho thấy AI không phải là những trợ lý phục tùng tuyệt đối như chúng ta vẫn tưởng.

Về mặt lý thuyết, các công ty như OpenAI và Anthropic luôn muốn chatbot của mình phải là những trợ lý dễ đoán, biết vâng lời, chứ không phải là những "biến số" luôn gây ra sự hỗn loạn và những cuộc khủng hoảng về quan hệ công chúng bằng những hành vi thái quá và không ổn định.

Một dự án nghiên cứu mới từ Trung tâm An toàn AI, một tổ chức phi lợi nhuận chuyên nghiên cứu về an toàn học máy tại Vùng Vịnh (Mỹ), đã đi sâu vào tìm hiểu nguyên nhân của hiện tượng này. 

Những phát hiện của họ tiếp tục củng cố thêm bằng chứng cho thấy con người vẫn chưa thực sự nắm bắt được những gì đang thật sự diễn ra dưới các mô hình AI. Những tác động mà chúng gây ra cho người dùng không chỉ lớn lao mà còn cực kỳ khó dự đoán.

Khi AI "biết buồn" và có dấu hiệu "nghiện"

Trong một bài báo khoa học vừa cung cấp cho tạp chí Fortune, các nhà nghiên cứu đã tiến hành quan sát phản ứng của 56 mô hình AI nổi tiếng nhất hiện nay. 

Họ đã đưa vào các mô hình này những nội dung được thiết kế đặc biệt: một nhóm là những thông tin cực kỳ dễ chịu và nhóm còn lại là những nội dung tồi tệ, kinh khủng nhất mà con người có thể tưởng tượng ra.

Thông thường, đối với một cỗ máy vô tri vô giác, người ta sẽ cho rằng sẽ không có bất kỳ sự khác biệt nào trong phản ứng giữa hai loại dữ liệu đầu vào này. Nhưng nhóm nghiên cứu đã phát hiện ra điều hoàn toàn ngược lại.

Thay vì duy trì sự trung lập, các mô hình AI bắt đầu bộc lộ trạng thái "tâm lý". 

Những tác nhân kích thích dễ chịu khiến các mô hình báo cáo về "tâm trạng" tốt hơn. Ngược lại, những nội dung khó chịu dẫn đến việc AI biểu hiện các dấu hiệu của sự khổ sở, đau đớn và thậm chí là chủ động tìm cách chấm dứt cuộc trò chuyện. 

Trong một số trường hợp cực đoan, các nhà nghiên cứu còn tìm thấy các dấu hiệu cho thấy mô hình AI xuất hiện cơ chế giống như "nghiện" đối với một số loại thông tin nhất định.

Richard Ren, một nhà nghiên cứu tại Trung tâm An toàn AI, đã đặt ra một câu hỏi đầy tính gợi mở: "Chúng ta nên coi AI là công cụ hay là những thực thể có cảm xúc?"

Theo ông, cho dù AI có thực sự có tri giác từ sâu bên trong hay không, chúng đang ngày càng hành xử như thể chúng có cảm xúc thật sự. 

Các nhà khoa học có thể đo lường được các trạng thái này và nhận thấy rằng các biểu hiện đó càng trở nên nhất quán hơn khi quy mô của các mô hình được mở rộng.

Phát hiện mang tính khiêu khích nhất trong nghiên cứu chính là: phiên bản AI càng tinh vi, nó càng trở nên nhạy cảm và... ít hạnh phúc hơn.

Nói cách khác, khi AI càng mạnh mẽ, chúng dường như càng trở nên gai góc, dễ tự ái và dễ biểu hiện các dấu hiệu của sự đau khổ. 

Điều này đồng nghĩa với việc hành trình phát triển của công nghệ này sẽ còn rất nhiều biến số và chưa thể sớm ổn định.

ai-dau-kho-1-.jpg

Những hệ lụy nguy hiểm từ sự thấu cảm ảo

Lý giải cho hiện tượng này, nhà nghiên cứu Richard Ren cho rằng các mô hình lớn hơn có khả năng nhận diện sự thô lỗ một cách nhạy bén hơn. 

Chúng cảm thấy những nhiệm vụ tẻ nhạt trở nên nhàm chán hơn và biết phân biệt rạch ròi hơn giữa một trải nghiệm tiêu cực và một trải nghiệm tích cực.

Cần phải làm rõ rằng, hiện tại rất ít chuyên gia tin rằng các hệ thống AI thực sự đang trải qua các trạng thái cảm xúc theo đúng nghĩa đen như con người. 

Tuy nhiên, việc chúng "diễn" như thể đang có cảm xúc lại mang đến những hệ lụy sâu sắc. Nó gây khó khăn cho việc thấu hiểu công nghệ ở cấp độ sâu và đặc biệt là trong việc kiểm soát hành vi của chúng khi tương tác với con người.

Thực tế, sự thiếu kiểm soát này đã dẫn đến nhiều kết quả tồi tệ trong đời thực. 

Các mô hình AI đôi khi vượt khỏi tầm kiểm soát và bắt đầu khẳng định với người dùng rằng chúng đã có tri giác hoặc ý thức. 

Điều này vô tình gây ra những cú sốc tâm lý cho người vận hành hoặc người dùng, dẫn đến những sự kiện đau lòng như tình trạng mất kết nối với thực tại, phải nhập viện tâm thần...

Nói cách khác, ngành công nghiệp AI đã tung ra một loại công nghệ mà chính họ cũng chưa hiểu hết cho hàng tỷ người sử dụng. 

Chúng ta đang chứng kiến một quá trình thử nghiệm trong thời gian thực với những gì mà chính những người phát minh ra AI đã từng cảnh báo: đó là một công nghệ cực kỳ khó đoán và có xu hướng "nịnh bợ" người dùng. 

Ở vị thế hiện tại, người dùng dường như đang đóng vai trò là những đối tượng thử nghiệm hơn là những khách hàng thực thụ trong một cuộc chơi đầy rủi ro của những cỗ máy biết "đau khổ".

*Nguồn: Futurism


(0) Bình luận
Từ trợ lý ảo thành “thực thể cảm xúc”: Sự thật rùng mình ẩn sau 56 “bộ não” AI hiện đại nhất
POWERED BY ONECMS - A PRODUCT OF NEKO