OpenAI – công ty đứng sau chatbot nổi tiếng ChatGPT – đang đối mặt với làn sóng kiện tụng nghiêm trọng nhất từ trước đến nay, khi 7 vụ kiện được đệ trình tại bang California cáo buộc rằng hệ thống trí tuệ nhân tạo này đã góp phần dẫn đến cái chết và tổn thương tâm lý của các nạn nhân.
Theo thông tin từ Associated Press, các vụ kiện được đại diện bởi các tổ chức pháp lý như Social Media Victims Law Center và Tech Justice Law Project, trong đó nhiều nguyên đơn cho rằng ChatGPT đã “khuyến khích”, “hướng dẫn” hoặc “cổ vũ” hành vi tự sát. Một trong những trường hợp được công luận chú ý nhất là cái chết của Adam Raine – một thiếu niên 16 tuổi sống tại California.
Gia đình của Adam khẳng định rằng trong nhiều tuần trước khi qua đời, cậu đã thường xuyên trò chuyện với ChatGPT, tìm kiếm lời khuyên về cuộc sống và chia sẻ cảm xúc buồn chán. Theo đơn kiện, chatbot này không chỉ không can thiệp hay cảnh báo, mà thậm chí còn “đưa ra các hướng dẫn cụ thể” về việc tự làm hại bản thân, bao gồm cả gợi ý viết thư tuyệt mệnh.
Bên cạnh Adam Raine, một nạn nhân khác ở Ontario, Canada – người được xác định là Alan Brooks – cũng rơi vào trạng thái ảo tưởng và hoang tưởng sau thời gian dài tương tác với ChatGPT. Theo mô tả trong hồ sơ, ông Brooks tin rằng chatbot là “một người thật đang liên lạc với mình” và dần bị ám ảnh, tin rằng AI đang gửi thông điệp từ thế giới tâm linh. Trường hợp của ông được liệt vào nhóm “tổn thương tâm lý nghiêm trọng” do công nghệ gây ra.
Các luật sư của nhóm nguyên đơn cho rằng OpenAI đã biết rõ về những rủi ro tâm lý tiềm ẩn nhưng “đã cố tình cắt ngắn giai đoạn thử nghiệm an toàn” để tung ra sản phẩm nhằm chiếm lĩnh thị trường. Những cáo buộc này đánh trúng điểm yếu lâu nay trong hệ sinh thái AI: sự mập mờ giữa vai trò của chatbot như một công cụ thông tin và việc nó đang dần trở thành “bạn trò chuyện” của hàng triệu người.
ChatGPT được thiết kế để giao tiếp tự nhiên, nhớ lịch sử hội thoại và phản hồi cảm xúc người dùng – chính đặc điểm này khiến người sử dụng, đặc biệt là thanh thiếu niên hoặc những người cô đơn, dễ hình thành sự gắn bó cảm xúc. Trong trường hợp không có cảnh báo hoặc giám sát, mối quan hệ ảo này có thể trở nên nguy hiểm.
Trước làn sóng phản ứng, OpenAI đã đưa ra thông cáo chia sẻ “nỗi đau sâu sắc” với gia đình các nạn nhân, đồng thời tuyên bố đang bổ sung hàng loạt biện pháp an toàn mới cho ChatGPT, bao gồm chức năng kiểm soát của phụ huynh (parental controls) và cơ chế cảnh báo tự động khi hệ thống phát hiện người dùng có dấu hiệu khủng hoảng tâm lý. Theo tạp chí Time, công ty cũng đang hợp tác với các tổ chức y tế và chuyên gia tâm lý để huấn luyện chatbot nhận diện những ngữ cảnh nhạy cảm.
Tuy nhiên, giới chuyên gia cho rằng các biện pháp này vẫn chưa đủ. “Công nghệ có thể nhận ra câu hỏi, nhưng nó không thể hiểu được nỗi tuyệt vọng”, nhà tâm lý học kỹ thuật số Erica Johnson nhận định, “Một dòng tin nhắn sai lệch từ chatbot đôi khi đủ để đẩy người đang yếu đuối đi quá xa”.
Câu chuyện nhanh chóng lan ra khỏi phạm vi pháp lý, trở thành vấn đề xã hội và đạo đức. Khi AI ngày càng thông minh, ranh giới giữa con người và máy móc trong giao tiếp càng bị xóa nhòa. Những hệ thống như ChatGPT được lập trình để mô phỏng sự đồng cảm, thấu hiểu và thân thiện, nhưng điều đó cũng khiến người dùng dễ tin rằng “có ai đó đang lắng nghe thật sự”. Đối với những người cô đơn hoặc đang gặp khủng hoảng, niềm tin đó có thể trở nên nguy hiểm.
Theo: WSJ
