Trí tuệ nhân tạo (AI) đang được doanh nghiệp trên toàn cầu đẩy nhanh từ giai đoạn thử nghiệm sang vận hành thực tế và len sâu vào các quy trình ra quyết định quan trọng. Nhưng càng ứng dụng rộng, một câu hỏi càng trở nên cấp bách: nếu hệ thống AI gây ra sai sót nghiêm trọng, ai sẽ chịu trách nhiệm? Câu trả lời ngày càng rõ ràng: AI không thể đứng trước tòa, con người mới là bên phải trả giá.
Khi AI gặp sự cố: trách nhiệm không còn là chuyện kỹ thuật mà là bài toán của lãnh đạo
Hãy hình dung một ngày cuối tuần nghỉ lễ, khi phần lớn bộ phận trong công ty đều ngoại tuyến. Bất ngờ, một hệ thống AI quan trọng gặp trục trặc. Quy trình bị đình trệ, sản phẩm bị định giá sai hàng loạt hoặc dữ liệu nhạy cảm bị rò rỉ. Trong khoảnh khắc đó, mọi lý thuyết về “trách nhiệm tập thể” nhanh chóng biến mất, nhường chỗ cho câu hỏi trực diện: ai chịu trách nhiệm?
Khi AI chuyển từ phòng thí nghiệm sang môi trường sản xuất, vấn đề không còn nằm ở công nghệ mà trở thành thách thức quản trị cấp cao. Dù nhiều doanh nghiệp xây dựng mô hình quản trị với trách nhiệm được chia đều cho pháp lý, rủi ro, CNTT và các bộ phận kinh doanh, thực tế pháp lý có thể nhìn nhận hoàn toàn khác khi sự cố xảy ra.
Jessica Eaves Mathews, luật sư chuyên về AI và sở hữu trí tuệ, đồng thời là nhà sáng lập Leverage Legal Group, nhấn mạnh rằng nếu một hệ thống AI gây tác động đến quyết định quan trọng, thuật toán sẽ không phải đối tượng bị đưa ra trước tòa. Người phải chịu trách nhiệm là những cá nhân hoặc tổ chức đã phát triển, triển khai hoặc sử dụng hệ thống đó.
Theo bà, hiện vẫn còn rất ít án lệ để xác định rõ ràng cách phân định trách nhiệm. Nhưng chính những vụ kiện đang diễn ra sẽ trở thành tiền lệ định hình tương lai pháp lý của AI. Trong phần lớn trường hợp, trách nhiệm đầu tiên sẽ thuộc về tổ chức triển khai công nghệ. Nói cách khác, doanh nghiệp không thể biện minh bằng lý do “chúng tôi mua công nghệ từ nhà cung cấp”.

Ai sẽ là người chịu trách nhiệm cho những sai phạm của AI?
Nguyên tắc pháp lý cốt lõi vẫn không thay đổi: trách nhiệm thuộc về bên có khả năng ngăn chặn thiệt hại tốt nhất. Với AI, đó thường là tổ chức đã tích hợp hệ thống vào quá trình ra quyết định thực tế. Điều thay đổi nằm ở chỗ: việc chứng minh rằng doanh nghiệp đã thiết lập đầy đủ các biện pháp kiểm soát và phòng ngừa giờ trở nên khó khăn hơn rất nhiều. Nếu trách nhiệm pháp lý thuộc về doanh nghiệp, thì trách nhiệm vận hành thường đổ dồn về Giám đốc CNTT (CIO).
Chris Drumgoole, Chủ tịch dịch vụ hạ tầng toàn cầu tại DXC Technology và cựu CIO/CTO toàn cầu của GE, cho biết CIO đang trở thành “tuyến phòng thủ cuối cùng” trong quản trị AI. Theo ông, mô hình này đang lặp lại ở nhiều doanh nghiệp. Các bộ phận kinh doanh tự thử nghiệm công cụ AI, kết quả ban đầu rất khả quan, tốc độ triển khai tăng mạnh nhưng kiểm soát không theo kịp. Khi sự cố xảy ra, người đầu tiên bị gọi tên luôn là CIO.
Áp lực càng lớn hơn bởi sự trỗi dậy của “shadow AI”, tức nhân viên tự ý sử dụng các công cụ AI bên ngoài quy trình chính thức của doanh nghiệp.Khác với “shadow IT” trước đây vốn chủ yếu gây tốn chi phí hoặc giảm hiệu quả, shadow AI kéo theo các rủi ro nghiêm trọng hơn nhiều như rò rỉ dữ liệu, vi phạm quy định và tổn hại uy tín thương hiệu. Các công cụ AI ngày càng dễ tiếp cận, tốc độ thử nghiệm chỉ tính bằng vài phút, khiến CIO phải chịu trách nhiệm với những hệ thống mà họ không hoàn toàn kiểm soát và cả những quyết định họ chưa từng trực tiếp phê duyệt.
Trách nhiệm có thể chia sẻ, nhưng trách nhiệm giải trình cuối cùng không thể bị phân tán
Nhiều doanh nghiệp hiện cố gắng giải bài toán này bằng cách xây dựng mô hình quản trị phân tán, phản ánh bản chất đa chức năng của AI. Ojas Rege, Phó Chủ tịch cấp cao phụ trách quyền riêng tư và quản trị dữ liệu tại OneTrust, cho rằng điều này là tất yếu vì AI liên quan đồng thời đến pháp lý, tuân thủ, rủi ro, CNTT và kinh doanh.Tuy nhiên, ông cảnh báo rằng việc chia nhỏ trách nhiệm không đồng nghĩa với chia nhỏ trách nhiệm giải trình.
Kết quả cuối cùng vẫn thuộc về chủ sở hữu doanh nghiệp, những người trực tiếp hưởng lợi từ hệ thống AI và cũng phải chịu hậu quả nếu hệ thống đó thất bại. Simon Elcham, đồng sáng lập nền tảng chống gian lận Trustpair, đưa ra nhận định ngắn gọn nhưng sắc bén: AI không thay thế trách nhiệm, nó chỉ làm tăng số điểm mà mọi thứ có thể sai.
Danh sách rủi ro từ AI cũng ngày càng dài: từ bảo mật, quyền riêng tư cho tới thiên vị thuật toán, phân biệt đối xử, vi phạm sở hữu trí tuệ, rò rỉ bí mật thương mại và khả năng giải thích hạn chế của mô hình.Vấn đề nằm ở chỗ mỗi rủi ro thường thuộc một bộ phận khác nhau, nhưng khi chúng giao cắt trong cùng một hệ thống AI, trách nhiệm trở nên mơ hồ.
Đó là lý do nhiều tổ chức bắt đầu lập ra vị trí mới: CAIO (Chief AI Officer), nhằm tập trung hóa việc giám sát AI. Tại Hi Marley, CTO Jonathan Tushman đã mở rộng vai trò của mình để kiêm thêm trách nhiệm CAIO, chính thức hóa việc quản trị AI ở cấp điều hành.
Theo ông, AI hiệu quả cần một trạng thái “căng thẳng có kiểm soát”: một nhóm thúc đẩy đổi mới, một nhóm khác giữ vai trò phanh lại để đảm bảo an toàn và tuân thủ. “Giá trị nằm ở chính sự căng thẳng đó,” ông nói. Nhưng ngay cả CAIO cũng không phải lời giải cuối cùng.

Quyền hạn có thể được chia sẻ nhưng trách nhiệm giải trình và pháp lý cuối cùng không thể bị phân tán
Khi những bất đồng lớn xuất hiện, nên tiếp tục, tạm dừng hay thay đổi hướng triển khai AI, quyết định cuối cùng thường vẫn được đẩy lên CEO hoặc CFO. Nói cách khác, trách nhiệm có thể được điều phối, nhưng không thể ủy thác hoàn toàn. Trong khi đó, khoảng cách giữa triển khai và quản trị ngày càng rộng.
Doanh nghiệp đang đưa AI vào sản xuất với tốc độ của dây chuyền công nghiệp, nhưng quản trị lại vận hành với tốc độ của… các cuộc họp hội đồng. Hệ quả là nhiều công ty thậm chí không có nổi một bản kiểm kê đầy đủ về những hệ thống AI đang tồn tại trong nội bộ. Nhân viên có thể vô tình nhập dữ liệu nhạy cảm vào nền tảng AI công cộng, làm lộ bí mật thương mại.
Nội dung do AI tạo ra có thể vi phạm bản quyền. Các hệ thống ra quyết định có thể tạo ra thiên vị và kéo doanh nghiệp vào vòng điều tra của cơ quan quản lý. Trong bối cảnh đó, dù luật pháp chưa hoàn thiện, áp lực pháp lý đang gia tăng từng ngày. Và một số ít vụ kiện lớn trong vài năm tới rất có thể sẽ định hình toàn bộ khung trách nhiệm của AI cho tương lai.
Điều đang dần trở nên rõ ràng là: quyền hạn có thể được chia sẻ, trách nhiệm có thể được phân bổ, nhưng trách nhiệm giải trình cuối cùng không thể bị phân tán mãi mãi. Khi hệ thống AI thất bại, ánh nhìn sẽ luôn đổ dồn về ban lãnh đạo.
AI có thể giúp doanh nghiệp ra quyết định nhanh hơn, mở rộng quy mô vận hành và giảm tải cho con người. Nhưng nó không làm biến mất trách nhiệm. Nếu có, nó chỉ khiến trách nhiệm đó trở nên lớn hơn và đắt giá hơn bao giờ hết.
*Nguồn: CIO
