Việt Nam học gì từ Mỹ và EU để kiểm soát rủi ro AI?

Thu Thủy | 22:08 16/05/2025

Trong bối cảnh trí tuệ nhân tạo (AI) ngày càng ảnh hưởng sâu rộng đến mọi lĩnh vực, việc đảm bảo phát triển và ứng dụng công nghệ này một cách có trách nhiệm đang trở thành ưu tiên của nhiều quốc gia và doanh nghiệp.

Việt Nam học gì từ Mỹ và EU để kiểm soát rủi ro AI?

Tại Việt Nam, những bước đi đầu tiên nhằm xây dựng nền tảng đạo đức cho AI đang được triển khai, với các khóa đào tạo và thảo luận chuyên sâu, kết nối giữa giới chuyên gia, nhà quản lý và cộng đồng công nghệ.

Ngày 15-16/5/2025, khóa học “Đạo đức AI” được tổ chức tại TP.HCM với sự phối hợp của Viện ABAII, Đại sứ quán và Tổng lãnh sự quán Hoa Kỳ. Trước đó, khóa học đã thu hút 500 học viên tại Hà Nội.

Đây được xem là chương trình đào tạo chuyên sâu đầu tiên tại Việt Nam tập trung vào khía cạnh đạo đức trong phát triển và ứng dụng AI, hướng tới đối tượng là cán bộ quản lý, chuyên gia công nghệ, giảng viên và nhà nghiên cứu.

Tại các quốc gia như Hoa Kỳ, Nhật Bản, Hàn Quốc hay các nước EU, đạo đức AI là một phần trong chính sách phát triển công nghệ. Microsoft đã phát triển hơn 30 công cụ hỗ trợ kiểm soát rủi ro nội dung và an toàn AI, trong khi Google và IBM đưa ra các khung nguyên tắc riêng để quản lý tác động xã hội và rủi ro liên quan đến công nghệ này.

Ở Việt Nam, chiến lược quốc gia về nghiên cứu và ứng dụng AI đến năm 2030 (Quyết định 127/QĐ-TTg) cũng xác định đạo đức và chính sách AI là một trong các trụ cột phát triển. Tuy nhiên, theo các chuyên gia, quá trình hiện thực hóa mục tiêu này vẫn còn đối mặt với nhiều thách thức.

2.jpg

Ông Jeremy Luna, Tuỳ Viên báo chí Tổng lãnh sự quán Hoa Kỳ tại TP.HCM phát biểu.

Ông Phan Đức Trung, Chủ tịch Hiệp hội Blockchain Việt Nam, cho rằng xây dựng nguyên tắc đạo đức cần phù hợp với quy mô và thực tiễn của từng tổ chức, không nên áp đặt một mô hình cứng nhắc. Ông cũng so sánh sự khác biệt giữa các hệ thống quản lý: trong khi EU hướng tới khung pháp lý nghiêm ngặt, mô hình của Hoa Kỳ linh hoạt hơn, tạo điều kiện cho đổi mới trước khi ban hành các quy định cụ thể.

Dù có định hướng rõ ràng từ cấp nhà nước, các chuyên gia cho rằng việc triển khai đạo đức AI tại Việt Nam vẫn còn khá sơ khai. Bà Trần Vũ Hà Minh, chuyên gia về AI có trách nhiệm tại FPT và thành viên Viện ABAII, nhận định rằng nhận thức và cam kết thực tiễn từ phía doanh nghiệp trong nước còn hạn chế. Những khóa học như “Đạo đức AI” được kỳ vọng sẽ tạo ra nền tảng cho lực lượng chuyên gia có năng lực và hiểu biết về rủi ro đạo đức trong phát triển AI.

Ông Đào Trung Thành, Phó Viện trưởng ABAII, cho biết các công ty lớn như Microsoft, Google hay IBM đều có cách tiếp cận khác nhau về AI có trách nhiệm, nhưng điểm chung là hướng tới hệ thống đánh giá, kiểm soát và minh bạch hóa quy trình triển khai công nghệ.

Trong các phiên thảo luận, ông Nguyễn Trần Minh Quân (Hiệp hội Blockchain Việt Nam) và ông Jeffery Recker (Babl AI, Hoa Kỳ) đã đưa ra cái nhìn từ góc độ quốc tế. Họ nhấn mạnh sự cần thiết của việc áp dụng các khung quy định như Nguyên tắc AI của OECD, tiêu chuẩn của NIST (Hoa Kỳ), hay bộ hướng dẫn của UNESCO, nhằm đảm bảo các hệ thống AI vận hành phù hợp với giá trị nhân văn và pháp lý.

“Việc thiếu chuẩn bị về đạo đức AI có thể dẫn đến những hậu quả tương tự như chữa cháy sau khi lửa đã lan rộng”, ông Recker cảnh báo. Ông khuyến nghị các tổ chức cần lập danh mục công cụ AI đang sử dụng, đánh giá rủi ro, phân tích mức độ tuân thủ pháp lý hiện tại và thiết lập lộ trình cải thiện cụ thể.

Kết thúc khóa học, các học viên không chỉ được trang bị kiến thức nền tảng về đạo đức AI mà còn có cơ hội kết nối liên ngành từ quản lý nhà nước, doanh nghiệp công nghệ, tổ chức giáo dục đến các viện nghiên cứu. Đây được xem là bước đi ban đầu để xây dựng một cộng đồng chuyên gia có thể hỗ trợ hoạch định chính sách và ứng phó với các thách thức đạo đức trong kỷ nguyên công nghệ số.


(0) Bình luận
Việt Nam học gì từ Mỹ và EU để kiểm soát rủi ro AI?
POWERED BY ONECMS - A PRODUCT OF NEKO