Chatbot tẻ nhạt là chủ đích của Google: Tình nguyện chậm chân, không muốn biến người dùng thành 'chuột lang thí nghiệm'

Vũ Anh | 11:34 25/03/2023

An toàn, có trách nhiệm là mục tiêu mà Google định hướng cho chatbot của mình.

Chatbot tẻ nhạt là chủ đích của Google: Tình nguyện chậm chân, không muốn biến người dùng thành 'chuột lang thí nghiệm'

Mới đây, Google phát hành Bard - ứng cử viên chatbot trí tuệ nhân tạo sáng giá nhằm cạnh tranh với ChatGPT của OpenAI và Bing của Microsoft. Nó có thể trả lời các câu hỏi theo cách hiệu quả hơn, soạn thảo email và kể cho bạn một câu chuyện trước khi đi ngủ; thậm chí viết một bài báo.

Tuy nhiên, Bard được cho là thiếu sự hấp dẫn, thú vị, độc đáo - thứ vốn được tìm thấy ở Bing và ChatGPT. Nó dè dặt hơn trong các câu trả lời và thường xuyên hiển thị những thông tin như “Tôi chỉ là mẫu ngôn ngữ và không có khả năng thực hiện điều này”. Bản thân Bard cũng không thể viết mã hay những trò đùa hài hước.

Dẫu vậy, đây không phải một điều xấu. Trên thực tế, Google chủ đích làm điều này. 

“Chúng tôi cảm thấy thực sự tốt khi Bard vẫn an toàn”, Sissie Hsiao, phó chủ tịch Google chia sẻ với phóng viên WSJ trong một cuộc phỏng vấn video độc quyền, đồng thời cho biết chatbot này là một “thử nghiệm ban đầu” với mục tiêu phát hành có trách nhiệm.

Bard hoàn hảo không? Tất nhiên là không. 

Giống như những chatbot khác, nó còn nhiều thiếu sót, đôi khi không cho những câu trả lời rõ ràng. Tuy nhiên, vào thời điểm mà toàn bộ ngành công nghệ đang tung ra các tính năng AI nhanh hơn cả cách Taylor Swift bán vé, còn người dùng chẳng khác nào những “chú chuột lang” trong phòng thí nghiệm, sự thận trọng của Google khiến chúng ta yên tâm.

Theo phóng viên tờ WSJ, Bard tẻ nhạt hơn ChatGPT và Bing. Khi được yêu cầu kể một câu chuyện trước khi đi ngủ, Bard tóm tắt “Alice in Wonderland”. Khi được yêu cầu đổi nội dung, nó quay sang tóm tắt “Goldilocks” và khi được yêu cầu sáng tạo hơn, Bard đơn giản chỉ đổi tên nhân vật chính.

1200x-11.jpeg
An toàn, có trách nhiệm là mục tiêu mà Google định hướng cho chatbot của mình.

Bard được thử nghiệm rất nhiều trong các cuộc trò chuyện. Người dùng cố đặt ra các câu hỏi khó để tìm kiếm những thông tin khiến họ phải kinh ngạc. Microsoft trước đó đã phải thêm các cài đặt an toàn bổ sung sau khi bản phát hành Bing AI đầu tiên cho một số phản hồi không ổn định. Theo bà Hsiao, Google chủ đích muốn Bard “đưa ra những câu trả lời phù hợp với giá trị con người”, đồng thời tránh xa các nội dung không an toàn và thiên vị.

Cách tiếp cận thận trọng của Google được hình thành sau nhiều năm AI gây tranh cãi. Bản thân các Giám đốc điều hành rất cảnh giác với những rủi ro mà bản demo sản phẩm mang lại, chẳng hạn như ảnh hưởng tới danh tiếng. Ngoài ra, tập đoàn này cũng sợ ‘tự bắn vào chân mình’ bởi trong chatbot nói riêng hay khái niệm ‘dịch vụ hội thoại’ nói chung, điều cấm kỵ nhất là quảng cáo - lĩnh vực đem lại nguồn thu chính cho Google.

Bard dựa trên một mô hình ngôn ngữ lớn. Các hệ thống này lấy lượng dữ liệu khổng lồ thu thập từ khắp nơi trên Internet, sau đó học hỏi cách người khác giải thích về một vấn đề nào đó. Điều này khiến các chatbot nghe có vẻ rất giống con người, song cũng là nguyên nhân khiến nó đôi phần thiếu tính chính xác. 

“Google đang vật lộn để tìm sự cân bằng giữa mức độ rủi ro và tham vọng duy trì vị thế dẫn đầu trên thế giới”, Gaurav Nemade, cựu Giám đốc sản phẩm của Google, nhận định. 

Theo đại diện phát ngôn Google, luôn có một khoảng cách lớn giữa nguyên mẫu nghiên cứu và sản phẩm đáng tin cậy, an toàn cho mọi người dùng. Google khẳng định cần suy nghĩ thấu đáo hơn các startup nhỏ khi phát hành công nghệ AI. 

“Đây sẽ là một hành trình dài — cho tất cả mọi người, trên toàn lĩnh vực”, Sundar Pichai, CEO Google nói. “Điều quan trọng nhất Google có thể làm ngay bây giờ là tập trung xây dựng một sản phẩm tuyệt vời và phát triển nó một cách có trách nhiệm”. 

1200x-1.jpeg
Chatbot tẻ nhạt là chủ đích của Google: Tình nguyện chậm chân, không muốn biến người dùng thành 'chuột lang thí nghiệm'

Nỗ lực đối với chatbot của Google bắt đầu từ năm 2013, khi người đồng sáng lập Larry Page thuê kỹ sư khoa học máy tính Ray Kurzweil để truyền bá tư tưởng rằng một ngày nào đó máy móc sẽ vượt qua trí thông minh của con người. Google sau đó cũng mua lại DeepMind - một công ty chuyên về trí tuệ nhân tạo. 

Hồi năm 2018, Google tuyên bố không sử dụng công nghệ AI vào lĩnh vực vũ khí quân sự. Động thái trên được đưa ra sau khi bản hợp đồng giữa Google và Bộ Quốc phòng Mỹ bị chỉ trích dữ dội. Nó có tên Project Maven, giúp Google có thể tự động xác định và theo dõi các mục tiêu máy bay không người lái. 

Tập đoàn này sau đó hủy bỏ dự án. Ông Pichai cũng công bố bộ 7 quy tắc nhằm hạn chế rủi ro xoay quanh công cụ AI, trong đó có việc yêu cầu chúng phải chịu trách nhiệm trước người dùng. 

Người đứng đầu bộ phận nghiên cứu của Google, Jeff Dean, đã nỗ lực nâng đỡ quá trình phát triển AI có trách nhiệm. Hồi tháng 5/2021, công ty cam kết tăng gấp đôi quy mô nhóm kỹ sư, đồng thời hỗ trợ giúp chatbot trở nên chính xác hơn, ít rủi ro hơn. 

“Ưu tiên cao nhất của chúng tôi, khi tạo ra các công nghệ như LaMDA (Language Model for Dialog Applications) là giúp chúng giảm tối đa rủi ro”, hai phó Chủ tịch Google cho biết trong một bài đăng trên blog.

Tuy nhiên, lãnh đạo Google sau đó quyết định ngừng cung cấp chatbot dưới dạng bản demo công khai vì quan ngại vấn đề bảo mật. 

Theo: WSJ

Bài liên quan

(0) Bình luận
Chatbot tẻ nhạt là chủ đích của Google: Tình nguyện chậm chân, không muốn biến người dùng thành 'chuột lang thí nghiệm'
POWERED BY ONECMS - A PRODUCT OF NEKO