DeepSeek, công ty khởi nghiệp AI của Trung Quốc, đã công bố một chatbot có hiệu suất tương đương như ChatGPT nhưng chỉ tốn một phần nhỏ năng lượng tính toán. Điều này đã thắp lên một tia hy vọng rằng AI có thể không ngốn nhiều năng lượng như mọi người vẫn lo sợ.
Tuy nhiên, theo các nhà khoa học máy tính, chuyên gia năng lượng và nhà đầu tư công nghệ, việc AI rẻ hơn và hiệu quả hơn có thể thúc đẩy người dùng sử dụng nhiều AI hơn, điều đó nghĩa là các trung tâm dữ liệu vẫn sẽ cần sử dụng nhiều điện.
Hiện tượng này cũng đã từng xảy ra trước đây. Vào thế kỷ XIX, nhà kinh tế học William Stanley Jevons đã ghi chép lại mức tiêu thụ than của Anh tăng vọt sau khi phát minh ra động cơ hơi nước sử dụng ít than hơn. Công nghệ mới khiến việc vận hành động cơ chạy bằng than trở nên rẻ đến mức các công ty trên khắp nước Anh bắt đầu áp dụng, tạo ra nhu cầu về nhiên liệu này thậm chí còn cao hơn.
Mặc dù vậy, các CEO công nghệ đứng sau sự bùng nổ của trung tâm dữ liệu không có dấu hiệu nào cho thấy sẽ chậm lại quá trình xây dựng theo kế hoạch, trong đó có Dự án Stargate, một kế hoạch do OpenAI dẫn đầu nhằm đầu tư 500 tỷ USD vào tối đa 20 trung tâm dữ liệu mới trong bốn năm tới. Theo Cục Thông tin Năng lượng và Cơ quan Bảo vệ Môi trường Mỹ, Dự án Stargate đã xây dựng nhà máy điện khí đốt tự nhiên công suất 360 MW, có thể sản xuất đủ điện cho 170.000 hộ gia đình ở Mỹ nhưng lượng khí ô nhiễm lại tương đương với khoảng 75.000 chiếc ô tô thải ra môi trường.
Theo Phòng thí nghiệm quốc gia Lawrence Berkeley, các trung tâm dữ liệu đã ngốn hơn 4% tổng lượng điện của Mỹ. Với dự đoán của các chuyên gia, ngay cả khi AI hiệu quả hơn dẫn đến số lượng trung tâm dữ liệu tăng chậm hơn cũng không làm giảm bớt lượng tiêu thụ điện trong vài năm tới.
Đối mặt với điều đó, ngày càng nhiều câu hỏi về năng lượng AI xuất hiện.
Vijay Gadepally, nhà khoa học cấp cao tại Phòng thí nghiệm Lincoln của MIT, chuyên gia nghiên cứu AI bền vững, cho biết con người cần phải tìm ra giải pháp giúp sử dụng năng lượng bền vững hơn.
Amazon, Google và Microsoft, các công ty công nghệ hàng đầu trên thế giới, phải chi tiền cho các khoản tín dụng năng lượng sạch và đầu tư vào các dự án năng lượng xanh để bù đắp việc tiêu tốn năng lượng cho công nghệ của mình.
Bên cạnh đó, các công ty công nghệ có thể giải quyết vấn đề này bằng cách khác như làm chậm trung tâm dữ liệu vào những thời điểm có nhiều năng lượng nhiên liệu hóa thạch trên lưới điện địa phương, hoặc chuyển hệ thống sang các trung tâm dữ liệu ở những nơi có nhiều năng lượng tái tạo hơn vào thời điểm đó. Điều này giúp các công ty có thể sử dụng phiên bản AI ngốn nhiều năng lượng hơn khi lưới điện sạch và ngược lại.
Trong một nghiên cứu năm 2023, Gadepally đã thử nghiệm ý tưởng này trên một mô hình AI nhận dạng hình ảnh. Khi mặt trời chiếu sáng và gió thổi, Gadepally đã sử dụng phiên bản AI tiên tiến nhất. Nhưng khi lưới điện sử dụng nhiều nhiên liệu hóa thạch hơn, ông đã chuyển sang phiên bản cũ hơn với hiệu suất kém hơn một chút nhưng lại tiêu tốn ít năng lượng hơn. Sau khi so sánh hiệu suất trong hai ngày, kết quả đo được là AI xanh đã cắt giảm 80% lượng khí thải carbon so với phiên bản tiêu chuẩn, đồng thời điểm số của nó trong các bài kiểm tra nhận dạng hình ảnh chỉ kém hơn 3%.
Năm 2024, Gadepally tiếp tục thực hiện một cuộc thử nghiệm tương tự bằng mô hình ngôn ngữ và thấy rằng phiên bản xanh đã cắt giảm 40% lượng khí thải carbon mà không có sự khác biệt nhiều về hiệu suất.
Giáo sư về kỹ thuật điện tại Đại học Pennsylvania, Benjamin Lee, cho biết các công ty có thể giảm lượng khí thải carbon của AI bằng các chiến lược này, nhưng chỉ khi họ sẵn sàng chấp nhận rằng AI của họ có thể hoạt động kém hơn một chút hoặc mất nhiều thời gian hơn để đào tạo. “Thách thức không phải là triển khai các kỹ thuật này mà là thuyết phục các công ty và người dùng AI rằng việc mất đi một số độ chính xác… là xứng đáng với việc tiết kiệm carbon”.
Theo The Washington Post