Giám đốc điều hành Jensen Huang ước tính Nvidia đã chi khoảng 10 tỷ USD cho chi phí nghiên cứu và phát triển.
Theo các nhà phân tích, với mức giá từ 30.000 USD - 40.000 USD tương đương với giá của GPU Hopper H100, chip thế hệ mới này có khả năng sử dụng cho việc đào tạo và triển khai phần mềm AI như ChatGPT. Thế hệ Hopper, ra mắt vào năm 2022, cho thấy mức giá đã tăng đáng kể so với chip AI thế hệ trước của Nvidia.
Nvidia cho ra mắt thế hệ chip AI mới khoảng 2 năm một lần. Những sản phẩm mới như Blackwell, nhìn chung nhanh hơn và tiết kiệm năng lượng hơn, bằng việc kết hợp hai con chip và có kích thước vật lý lớn hơn thế hệ trước.
Thế hệ chip AI mới này, bao gồm GB200, không chỉ là một sản phẩm mà còn là nền tảng thể hiện quá trình chuyển đổi của Nvidia từ nhà cung cấp chip sang nhà cung cấp nền tảng toàn diện giống như những gã khổng lồ công nghệ như Microsoft và Apple.
GB200 là sản phẩm đầu tiên của dòng Blackwell, được thiết kế để mang lại hiệu suất chưa từng có, mang lại hiệu suất AI 20 petaflop so với 4 petaflop của H100. Khả năng xử lý nhanh này rất quan trọng để phát triển các mô hình AI lớn và phức tạp hơn, vượt qua ranh giới những gì có thể thực hiện được trong nghiên cứu và ứng dụng trí tuệ nhân tạo.
Từ cuối năm 2022, với sự bùng nổ của trí tuệ nhân tạo, các chip AI đã đẩy doanh số bán hàng của Nvidia tăng gấp ba lần. Hầu hết các công ty công nghệ hàng đầu đều sử dụng H100 của Nvidia để phát triển các mô hình AI nhiều năm qua. Điển hình như Meta đã mua hàng trăm nghìn GPU Nvidia H100 trong năm nay.
Nvidia không tiết lộ giá niêm yết nhưng Chip có nhiều cấu hình khác nhau và mức giá mà nhà tiêu dùng như Meta hoặc Microsoft có thể trả tùy thuộc vào các yếu tố như số lượng chip đặt mua hoặc liệu khách hàng mua chip trực tiếp từ Nvidia hay thông qua nhà cung cấp như Dell, HP hay Supermicro. Một số máy chủ được xây dựng với tối đa 8 GPU AI.
Nvidia đã cho ra mắt ít nhất ba phiên bản khác nhau của Blackwell AI – B100, B200, GB200 kết hợp 2 GPU Blackwell với CPU dựa trên Arm và dự kiến sẽ xuất xưởng vào cuối năm nay.