Hồi chuông cảnh báo về quyền riêng tư trong thời đại trí tuệ nhân tạo vừa vang lên với sự cố nghiêm trọng liên quan đến ChatGPT – công cụ AI phổ biến của OpenAI. Hàng nghìn cuộc trò chuyện mà người dùng tưởng như riêng tư, thực tế đã bị Google tiếp cận và hiển thị công khai trên kết quả tìm kiếm.
Sự việc bắt đầu được chú ý khi một số chuyên gia bảo mật phát hiện các đoạn hội thoại có thể được truy cập dễ dàng chỉ bằng một truy vấn tìm kiếm đơn giản. Những gì họ tìm thấy không chỉ là đoạn văn mẫu hay hướng dẫn kỹ thuật, mà còn bao gồm cả những tâm sự đời tư, thảo luận công việc, dữ liệu nhạy cảm và thậm chí là những lời thú nhận mang tính cá nhân sâu sắc.
Nguồn cơn đến từ một tính năng mà OpenAI giới thiệu nhằm phục vụ việc chia sẻ cuộc hội thoại với người khác: tính năng “Share chat”. Trong đó, nếu người dùng đánh dấu chọn vào ô “Make this chat discoverable”, hệ thống sẽ tạo một liên kết công khai, có thể được tiếp cận bởi các công cụ tìm kiếm như Google. Điều đáng nói là giao diện của tính năng này không đủ rõ ràng để người dùng hiểu rằng nội dung sẽ trở nên công khai theo nghĩa rộng nhất. Trong nhiều trường hợp, người dùng chỉ đơn giản nghĩ rằng họ đang gửi đường dẫn cho bạn bè hoặc đồng nghiệp.
Sau khi sự việc vỡ lở, OpenAI nhanh chóng có động thái khắc phục: tạm ngưng chức năng chia sẻ có thể tìm kiếm và phối hợp với Google để loại bỏ. Theo báo cáo của Fast Company, có hơn 4.500 liên kết bị phát hiện chia sẻ công khai – một con số không nhỏ, đặc biệt trong bối cảnh lượng người dùng ChatGPT toàn cầu đang tăng nhanh.
Không ít người đã sử dụng ChatGPT để viết email, trình bày bệnh lý, phác thảo chiến lược kinh doanh hay tâm sự những điều mà họ ngỡ như đang chia sẻ với một không gian kín. Sự cố cho thấy bất kỳ thao tác nào, dù là vô tình, cũng có thể biến cuộc trò chuyện đó thành dữ liệu công khai.
Những người quan tâm đến quyền riêng tư đang đặt câu hỏi rằng: liệu một công ty AI như OpenAI có đang đặt trách nhiệm đúng mức đối với dữ liệu người dùng? Họ có cung cấp đủ thông tin rõ ràng và minh bạch để người dùng hiểu rằng những gì mình nhập gửi sẽ được bảo mật?

Sam Altman, CEO của OpenAI, từng thừa nhận trong một cuộc phỏng vấn rằng các cuộc hội thoại với ChatGPT không được bảo vệ bởi những nguyên tắc pháp lý truyền thống về bảo mật. Trong bối cảnh AI ngày càng len lỏi vào các lĩnh vực như chăm sóc sức khỏe tinh thần, giáo dục cá nhân hóa,..., việc thiếu khung pháp lý bảo vệ dữ liệu khiến người dùng đứng trước nhiều nguy cơ bị phơi bày những thứ không mong muốn. Việc một đoạn trò chuyện chỉ mang tính trào phúng hoặc thử nghiệm cũng có thể bị hiểu nhầm nếu được trích dẫn ngoài ngữ cảnh.
Thực tế, đây không phải là lần đầu tiên OpenAI đối mặt với những lo ngại về quyền riêng tư. Các nhà nghiên cứu bảo mật từng cảnh báo về khả năng mô hình ngôn ngữ lớn như GPT lưu trữ và “vô tình” tái hiện lại dữ liệu từ các cuộc trò chuyện trước đó nếu người dùng khéo léo hỏi. Những tấn công kiểu “reconstruction” – kỹ thuật truy xuất thông tin gián tiếp từ mô hình – cho thấy AI không hoàn toàn là “một tờ giấy trắng” trong mỗi lượt chat mới. Khả năng bị rò rỉ thông tin là có thật, và phụ thuộc vào cách các mô hình được huấn luyện, cập nhật và kiểm soát.
Không thể phủ nhận, AI như ChatGPT đã thay đổi cách con người tiếp cận thông tin, sáng tạo nội dung và tương tác với máy tính. Tuy nhiên, cùng với sự tiện lợi là vô vàn rủi ro liên quan đến dữ liệu cá nhân. Sự cố lần này chính là minh chứng rõ nét rằng không có gì là thực sự riêng tư nếu không có rào chắn công nghệ và sự tỉnh táo của người dùng.
Theo: Business Insider