Big Tech hô hào chống deepfake nhưng vẫn kiếm bộn tiền từ AI: 270 triệu người dùng mỗi ngày thành “chuột bạch”

Lại Dịu | 06:11 07/05/2026

Trong khi liên tục cảnh báo về nguy cơ deepfake và thông tin giả, Big Tech vẫn tăng tốc thương mại hóa AI tạo sinh, khiến internet ngày càng khó phân biệt thật - giả.

Big Tech hô hào chống deepfake nhưng vẫn kiếm bộn tiền từ AI: 270 triệu người dùng mỗi ngày thành “chuột bạch”

Khi năm 2025 khép lại, những cảnh báo về trí tuệ nhân tạo không còn mang tính giả định mà đã trở thành thực tế hiển hiện. Người đứng đầu Instagram, Adam Mosseri, thừa nhận một điều đáng lo ngại.

Tính xác thực vốn là nền tảng của nội dung số đang bị sao chép gần như vô hạn. Những yếu tố từng làm nên giá trị của người sáng tạo như sự chân thực, cá tính hay khả năng kết nối với khán giả giờ đây có thể bị tái tạo bằng các công cụ AI chỉ trong vài phút.

Tuy nhiên, nghịch lý nằm ở chỗ: trong khi các lãnh đạo công nghệ công khai bày tỏ lo ngại, chính các công ty của họ lại đang tăng tốc phát triển và thương mại hóa các công cụ AI tạo sinh. Đây là thứ góp phần trực tiếp làm trầm trọng thêm vấn đề.

Cuộc chiến chống deepfake: Có giải pháp nhưng không hiệu quả

Một trong những giải pháp được kỳ vọng nhiều nhất hiện nay là hệ thống Chứng chỉ Nội dung (C2PA). Được ra đời năm 2021 với sự hậu thuẫn của hàng loạt “ông lớn” như Adobe, Microsoft, Google hay Meta.

Về lý thuyết, C2PA cho phép gắn siêu dữ liệu vào hình ảnh, video và âm thanh để xác định nguồn gốc, thời điểm tạo và mức độ can thiệp của AI. Cách tiếp cận của C2PA không phải là phát hiện nội dung giả, mà là xác thực nội dung thật. Điều này nghe có vẻ hợp lý, nhưng trên thực tế lại bộc lộ nhiều hạn chế.

Trước hết, hệ thống này yêu cầu sự tham gia đồng bộ của toàn bộ chuỗi sản xuất nội dung từ thiết bị ghi hình, phần mềm chỉnh sửa cho đến nền tảng phân phối. Đây là điều gần như không khả thi trong một hệ sinh thái mở như internet.

Ngay cả các hãng máy ảnh lớn như Canon, Nikon hay Sony cũng mới chỉ bắt đầu triển khai hỗ trợ ở các dòng sản phẩm mới. Trong khi đó hàng tỷ thiết bị cũ vẫn tiếp tục hoạt động mà không có bất kỳ dấu vết xác thực nào.

Thêm vào đó, siêu dữ liệu của C2PA có thể bị xóa bỏ một cách dễ dàng dù vô tình hay cố ý. Điều này khiến hệ thống trở nên thiếu tin cậy trong môi trường thực tế, nơi nội dung liên tục bị sao chép, chỉnh sửa và tái đăng tải.

Một vấn đề khác là trải nghiệm người dùng. Dù nội dung có chứa thông tin C2PA, phần lớn người dùng vẫn không biết cách kiểm tra hoặc thậm chí không biết hệ thống này tồn tại. Việc truy xuất thông tin thường yêu cầu thao tác thủ công hoặc sử dụng công cụ bên ngoài, khiến nó trở nên xa rời thực tế sử dụng hàng ngày.

Big Tech đưa ra giải pháp chống deepfake nhưng không hiệu quả 

Ngay cả các nền tảng lớn cũng triển khai không nhất quán. Instagram từng gây tranh cãi khi gắn nhãn “Được tạo bởi AI” lên cả những bức ảnh thật, khiến nhiều nhiếp ảnh gia phản ứng dữ dội. Sau đó, Meta đã đổi tên nhãn thành “Thông tin AI” và ẩn nó sâu trong giao diện, khiến người dùng khó nhận biết hơn.

Trong khi đó, YouTube sử dụng kết hợp nhiều hệ thống như C2PA và watermark SynthID của Google, nhưng các nhãn này vẫn thiếu đồng bộ và không dễ nhận diện. LinkedIn và TikTok cũng chưa thể gắn nhãn đáng tin cậy cho nội dung có nguồn gốc AI.

Thậm chí, một số nền tảng lớn còn đứng ngoài cuộc. X (trước đây là Twitter), nơi có khoảng 270 triệu người dùng hoạt động mỗi ngày, đã rút khỏi sáng kiến C2PA sau khi Elon Musk tiếp quản. Điều này đồng nghĩa với việc một trong những kênh lan truyền thông tin nhanh nhất thế giới gần như không có cơ chế kiểm soát nguồn gốc nội dung hiệu quả.

Các chuyên gia cũng cảnh báo rằng việc quá phụ thuộc vào hệ thống dán nhãn là một giả định sai lầm. Nội dung AI không chỉ được tạo ra từ một vài công cụ cụ thể mà có thể xuất phát từ vô số nguồn khác nhau.

Ngay cả khi có nhãn, người dùng vẫn có thể bị đánh lừa.
Một nghiên cứu gần đây cũng chỉ ra rằng các cảnh báo minh bạch không đủ để ngăn chặn tác hại của deepfake. Nói cách khác, việc “gắn nhãn” không đồng nghĩa với việc “giải quyết vấn đề”.

Lợi nhuận hay trách nhiệm: Big Tech đang chọn gì?

Trong khi các giải pháp kiểm soát vẫn còn nhiều lỗ hổng, các công ty công nghệ lại đang đẩy mạnh khai thác AI như một nguồn doanh thu mới. OpenAI kiếm tiền chủ yếu từ các gói đăng ký, cho phép người dùng tạo nhiều hình ảnh và video AI hơn. Meta đang lên kế hoạch khóa một số tính năng AI sau tường phí trên Instagram, Facebook và WhatsApp.

Google vừa khuyến khích sử dụng AI trong sản xuất nội dung YouTube, vừa bị chỉ trích vì thay thế tiêu đề tin tức bằng các bản tóm tắt AI thiếu chính xác. Hệ quả là nội dung do AI tạo ra đang bùng nổ với tốc độ chóng mặt.

Vào tháng 7/2024, nội dung AI kém chất lượng đã chiếm tới 10% số kênh phát triển nhanh nhất trên YouTube, một con số cho thấy mức độ lan rộng đáng báo động. Không chỉ dừng lại ở vấn đề chất lượng, AI còn bị lợi dụng để lan truyền thông tin sai lệch về các sự kiện nhạy cảm, từ biểu tình cho đến các vụ án hình sự.

Những nội dung này có thể được tạo ra nhanh chóng, lan truyền rộng rãi và gây ảnh hưởng lớn trước khi bị phát hiện. Điều đáng nói là các nền tảng dường như không có động lực mạnh mẽ để kiểm soát triệt để.

Deepfake vẫn tràn lan trên các ứng dụng công nghệ 

Nội dung gây tranh cãi dù thật hay giả vẫn giúp tăng tương tác, giữ chân người dùng và từ đó thúc đẩy doanh thu quảng cáo. Thậm chí, nhiều công ty còn phát triển các sản phẩm AI mô phỏng con người mà không có sự đồng ý, vi phạm bản quyền và quyền riêng tư.

Một số ứng dụng video AI đã tái tạo hình ảnh và phong cách của người thật, đặt ra những câu hỏi nghiêm trọng về đạo đức và pháp lý. Trong bối cảnh đó, việc vừa phát triển AI vừa cố gắng kiểm soát nó giống như “vừa đổ dầu vào lửa, vừa tìm cách dập lửa”.

Một số nền tảng đang thử nghiệm hướng đi mới: thay vì chỉ kiểm soát nội dung, họ chuyển sang đánh giá chính người tạo nội dung. Instagram cho rằng tương lai sẽ tập trung vào “người nói” thay vì “nội dung được nói”.

YouTube cũng ưu tiên hiển thị nguồn tin chính thống trong các sự kiện quan trọng, đồng thời cảnh báo người dùng rằng thông tin có thể thay đổi nhanh chóng. Tuy nhiên, những giải pháp này vẫn mang tính tạm thời và chưa giải quyết được gốc rễ vấn đề.

Thực tế cho thấy, bất kỳ biện pháp nào làm giảm khả năng lan truyền của nội dung AI đều có thể ảnh hưởng đến lợi nhuận của các công ty công nghệ. Đây chính là xung đột lợi ích cốt lõi khiến việc kiểm soát deepfake trở nên khó khăn.

Ngày nay, công nghệ cho phép tạo ra “thực tế giả” ngày càng hoàn hảo. âu hỏi không còn là liệu chúng ta có thể phân biệt thật giả hay không, mà là liệu các nền tảng có thực sự muốn làm điều đó.

Trong một thế giới mà “sự phong phú vô hạn” đi kèm với “sự nghi ngờ vô hạn”, như cách Mosseri mô tả, người dùng đang bị đẩy vào một môi trường thông tin ngày càng hỗn loạn. Và nếu không có những thay đổi mang tính cấu trúc, cuộc chiến chống deepfake có thể đã thất bại ngay từ khi bắt đầu.

*Nguồn bài viết: The Verge


(0) Bình luận
Big Tech hô hào chống deepfake nhưng vẫn kiếm bộn tiền từ AI: 270 triệu người dùng mỗi ngày thành “chuột bạch”
POWERED BY ONECMS - A PRODUCT OF NEKO