Các nhà phát triển, nghiên cứu AI và thậm chí là nhà đồng sáng lập Microsoft Bill Gates đã dành cả tuần qua để bảo vệ “công việc” của họ. Vào cuối tháng 3, CEO Twitter Elon Musk, người đồng sáng lập Apple Steve Wozniak và nhiều nhà nghiên cứu đã ký vào bức thư kêu gọi ngừng tạo ra các siêu AI mạnh hơn GPT-4 trong 6 tháng vì có thể nó sẽ gây ra những rủi ro lớn cho xã hội.
Bức thư hiện đã có hơn 13.500 chữ ký, thể hiện nỗi e ngại rằng “cuộc đua” phát triển các chương trình như ChatGPT của OpenAI, Bing của Microsoft và Bard của Alphabet có thể gây ra những hậu quả tiêu cực nếu không kiểm soát tốt. Các rủi ro có thể kể đến là việc lan truyền rộng rãi nhiều thông tin sai lệch hay con người có nguy cơ bị “thay thế”.
Vì vậy, trong một cuộc phỏng vấn với tờ Reuters, Bill Gates từng đáp lại thư ngỏ rằng: “Tôi không nghĩ yêu cầu một nhóm cụ thể dừng nghiên cứu AI là có thể giải quyết được vấn đề”. Vị tỷ phú cũng nói thêm rằng việc ngừng nghiên cứu rất khó để thực thi trên toàn cầu, dù cho ông cũng đồng ý là ngành cần nghiên cứu thêm để xác định 1 số yếu tố khó khăn.
Bức thư ngỏ của Elon Musk và nhiều chuyên gia đã đẩy “cuộc chiến” trở nên thú vị. Nó nêu được các vấn đề 1 cách chính xác nhưng giải pháp được đề xuất lại gần như “bất khả thi”.
Musk và Wozniak lo ngại điều gì?
Đơn giản, bức thư ngỏ bày tỏ sự bất an. Những tháng gần đây, các phòng thí nghiệm AI đã bị “cuốn” vào 1 cuộc chạy đua ngoài tầm kiểm soát khi cố gắng phát triển các trí tuệ nhân tạo mạnh mẽ hơn bao giờ hết. Nhưng có lẽ, ngay cả những người tạo ra chúng đôi khi cũng khó để hiểu, dự đoán hoặc kiểm soát tầm ảnh hưởng.
Các hệ thống AI thường bị thành kiến là có thể gây rắc rối tới quyền riêng tư của người dùng. Hay thậm chí, chúng có thể làm lan truyền thông tin sai lệch 1 cách rộng rãi, đặc biệt khi bị sử dụng với mục đích xấu.
Và nhiều người cũng lo ngại 1 số công ty sẽ cố gắng cắt giảm chi phí bằng cách thay thế con người, từ trợ lý cá nhân đến cố vấn dịch vụ khách hàng bằng…AI.
Nước Ý đã tạm thời cấm ChatGPT. Chính phủ Anh cũng từng công bố nhiều khuyến nghị đối với ngành công nghiệp này, hay các quan chức châu Âu cũng được kêu gọi tăng cường quy định cho lĩnh vực trí tuệ nhân tạo.
Tại Mỹ, một số thành viên quốc hội đã kêu gọi ban hành luật mới để điều chỉnh hoạt động của công nghệ AI. Hay tháng trước, Ủy ban thương mại liên bang cũng đã ban hành hướng dẫn cho các doanh nghiệp phát triển chatbot tiên tiến, ngụ ý rằng họ đang theo dõi chặt chẽ để kiểm soát các hành vi “xấu” có thể xảy đến.
Vào năm ngoái, nhiều đạo luật về quyền riêng tư cũng đã được thông qua nhằm mục đích buộc các doanh nghiệp tiết lộ thời điểm và cách thức hoạt động các sản phẩm AI của họ. Đồng thời phải xây dựng làm sao cho khách hàng được quyền từ chối cung cấp dữ liệu cá nhân.
Những đạo luật đó hiện đang có hiệu lực ở California, Connecticut, Colorado, Utah và Virginia.
Vậy các nhà phát triển AI nói gì?
Anthropic: Trong 1 bài viết, công ty phát triển trí tuệ nhân tạo Anthropic cho biết các công nghệ hiện tại sẽ khó gây ra những hậu quả mà mọi người vẫn nghĩ.
Anthropic đã nhận được khoản đầu tư 400 triệu USD từ Alphabet vào tháng 2 để phát triển chatbot AI của riêng mình - Claude. Ngoài ra, công ty cũng lưu ý rằng các hệ thống trí tuệ nhân tạo trong tương lai có thể trở nên mạnh mẽ hơn nhiều trong thập kỷ tới. Vì vậy, việc xây dựng hàng rào bảo vệ cũng có thể “giúp giảm thiểu rủi ro” trong tương lai.
Nhưng vấn đề là: Không ai chắc chắn được “hàng rào” bảo vệ đó trông như thế nào?. Và tính đến thời điểm hiện tại, người phát ngôn của công ty cũng không nói rõ liệu Anthropic có ủng hộ việc tạm dừng phát triển 6 tháng hay không?
OpenAI: Trong một tweet hôm thứ tư, Giám đốc điều hành OpenAI Sam Altman cũng thừa nhận nếu có một quy định chung toàn cầu giữa các công ty trí tuệ nhân tạo hàng đầu thì có thể giảm thiểu những lo ngại của ngành.
Tuy nhiên, anh cũng không nói các quy định, điều luật đó cần có những gì hay không đưa ra bình luận nào về bức thư ngỏ “dừng hoạt động” gần đây.
Mặt khác, một số nhà nghiên cứu lại đưa ra các vấn đề bên lề, đó là việc tạm dừng nghiên cứu siêu AI có thể kìm hãm sự phát triển của ngành.
Hay thậm chí, việc “hô to” về “mối nguy” mà nó có thể đem lại càng khiến những kẻ xấu lợi dụng công nghệ này cho các mục đích bất chính, theo nhận định của Richard Socher - nhà nghiên cứu về AI, đồng thời là giám đốc điều hành của You.com (một startup về công cụ hỗ trợ trí tuệ nhân tạo).
Phóng đại về “rủi ro AI” sẽ càng gây ra nỗi lo không cần thiết xung quanh chủ đề này và những đề xuất trong bức thư ngỏ là không thể thực thi, ông cho biết thêm.
Điều gì sẽ xảy ra?
Sự im lặng của các nhà phát triển AI trước bức thư ngỏ dường như ngụ ý rằng họ khó có thể tự nguyện dừng công việc đang làm. Bức thư kêu gọi tăng cường quy định của chính phủ dường như còn tiềm năng hơn.
Tại Mỹ, Ủy ban Thương mại Liên bang FTC cũng có thể thiết lập 1 số quy tắc yêu cầu các nhà phát triển AI tạo thuật toán khiến chatbot không đưa ra các thông tin sai lệch hay thiên vị ngầm. Đặc biệt là cần tăng cường thử nghiệm sản phẩm đó trước khi phát hành công khai với công chúng, theo lời khuyên từ công ty luật Alston & Bird.
Ngoài ra, Stuart Russell, nhà khoa học máy tính của Đại học Berkeley, đồng thời là nhà nghiên cứu AI hàng đầu lại đồng ký với bức thư ngỏ gần đây. Ông cho biết những nỗ lực như vậy cần phải được thực hiện trước khi công nghệ trí tuệ nhân tạo tiến xa hơn nữa.
Việc tạm dừng 6 tháng đôi khi có thể giúp các công ty công nghệ có thêm thời gian để chứng minh rằng các hệ thống AI tiên tiến không gây ra rủi ro lớn, ông nhận định thêm.
Dù đồng tình hay phản đối, cuộc “hỗn chiến” của làng công nghệ đều có chung 1 quan điểm: “Đó là các tình huống xấu nhất mà AI có thể gây ra cần được ngăn chặn. Trước mắt, họ cần cung cấp cho người dùng sự minh bạch và bảo vệ họ trước “người xấu”.
Còn về lâu dài, điều đó có nghĩa là ngăn cản trí thông minh của AI vượt qua trí tuệ của con người và mọi thứ vẫn đang trong tầm kiểm soát.
“Một khi bạn bắt đầu tạo ra những cỗ máy cạnh tranh và vượt qua con người, chúng ta sẽ rất khó tồn tại. Đó là điều không thể tránh khỏi”, tỷ phú Bill Gates từng nói năm 2015.
Tham khảo CNBC