Khi các mô hình ngôn ngữ lớn (LLM) như OpenAI GPT hay các phiên bản của Google DeepMind được phát hành rộng rãi, thị trường Nhật Bản – với ngôn ngữ, văn hoá và bối cảnh riêng – bắt đầu nhận ra một điều: muốn tạo ra AI hiệu quả và phù hợp, chỉ “nhập khẩu” mô hình ngoại quốc thôi thì chưa đủ. Thay vào đó, việc thu thập và huấn luyện với dữ liệu bản địa mới chính là con đường khả thi trong ngôn ngữ riêng.
Một trong những cái tên nổi bật trong cuộc đua này là SoftBank Corp. (SB), thông qua công ty con SB Intuitions Corp., đang đẩy mạnh phát triển các mô hình tiếng Nhật chuyên biệt — sử dụng cơ sở hạ tầng AI “khổng lồ” và dữ liệu huấn luyện nội địa. Ví dụ, họ công bố vừa riển khai hệ thống tính toán với hơn 10.000 GPU và sức mạnh tới 13,7 exa-flops trên nền tảng DGX SuperPOD của NVIDIA Corporation và sẽ sử dụng tài nguyên đó để huấn luyện mô hình “Sarashina” chuyên tiếng Nhật.
Thế mạnh nằm ở “điểm yếu” mà nhiều mô hình quốc tế đối mặt: tiếng Nhật vốn có cấu trúc, cách diễn đạt, văn hoá và ngữ cảnh rất khác tiếng Anh. Các mô hình LLM phát triển chủ yếu cho tiếng Anh thường gặp khó trong việc xử lý tiếng Nhật một cách “mượt” hoặc chính xác về ngữ nghĩa, ngôn ngữ giao tiếp và bối cảnh văn hoá. Vì vậy, các nhà phát triển ở Nhật nhận ra rằng nếu lấy dữ liệu tiếng Nhật chất lượng cao — như hội thoại nội địa, văn bản quảng cáo, sáng tác tiếng Nhật, hội thoại thực tế, vị thế cạnh tranh hoàn toàn có thể được cải thiện.
Trong bối cảnh này, Chính phủ Nhật đóng vai trò xúc tác quan trọng. Theo báo cáo, chính quyền Tokyo muốn hỗ trợ việc phát triển mô hình nội địa “sử dụng dữ liệu Nhật Bản” nhằm tránh phụ thuộc vào các mô hình từ Mỹ hoặc Trung Quốc — lý do không chỉ là kỹ thuật mà còn liên quan tới chủ quyền dữ liệu, bảo mật thông tin và đảm bảo mô hình trả lời đúng theo bối cảnh văn hoá/văn bản Nhật.
Những nỗ lực thực tế đã bắt đầu mang dấu ấn cụ thể: công ty quảng cáo Dentsu Inc., cùng với Dentsu Digital và SoftBank, công bố dự án nghiên cứu chung để tạo ra LLM chuyên về sáng tạo nội dung quảng cáo tiếng Nhật — dự án sử dụng dữ liệu từ các copywriter nội địa phối hợp với mô hình “Sarashina”.

Tuy vậy, hành trình này không hề dễ dàng. Thách thức đầu tiên nằm ở chi phí: việc thu thập, gắn nhãn và xử lý hàng nghìn giờ hội thoại đòi hỏi một hạ tầng khổng lồ và đội ngũ chuyên gia ngôn ngữ học công nghệ cao. Hơn nữa, Nhật Bản phải đối mặt với tình trạng thiếu nhân lực AI – vấn đề mà chính Thủ tướng từng cảnh báo sẽ trở thành điểm nghẽn lớn nếu không được giải quyết.
Bên cạnh đó, quy mô vẫn là một rào cản. Các mô hình như GPT-4 của OpenAI hay Gemini của Google được huấn luyện trên hàng nghìn tỷ tham số. Việc bắt kịp quy mô đó gần như bất khả thi với nguồn lực hạn chế của Nhật Bản. Vì thế, các công ty trong nước phải chọn hướng đi tối ưu: tập trung vào ngữ cảnh tiếng Nhật, tạo ra mô hình “vừa đủ lớn để hữu dụng, vừa đủ nhỏ để hiệu quả”.
Thế nhưng, chính sự khác biệt đó lại có thể là chìa khóa. Trong bối cảnh thế giới ngày càng lo ngại về quyền riêng tư và chủ quyền dữ liệu, việc sở hữu mô hình AI “Made in Japan”, vận hành hoàn toàn bằng dữ liệu trong nước, giúp Tokyo có lợi thế cả về pháp lý lẫn đạo đức. Nó đảm bảo rằng các hệ thống AI trong nước – từ trợ lý ảo chính phủ, chatbot y tế đến dịch vụ tài chính – đều tuân thủ chuẩn mực văn hóa và luật pháp Nhật.
Các chuyên gia nhận định, nếu SoftBank thành công, Nhật Bản có thể trở thành một trung tâm AI khu vực châu Á – không phải bằng việc cạnh tranh về quy mô, mà bằng việc định hình xu hướng “AI bản địa hóa”, nơi mỗi quốc gia tự phát triển mô hình riêng phản ánh ngôn ngữ và văn hóa của mình. “AI không thể chỉ nói ngôn ngữ của Silicon Valley. Nó phải nói ngôn ngữ của người dân nơi nó phục vụ,” một kỹ sư của SB Intuitions chia sẻ trên Nikkei.
Theo: Nikkei Asia