"Mức giá này dựa trên những phát minh và các công nghệ mới, biến thứ không thể thành hiện thực", Jensen Huang nói với CNBC về chip Blackwell B200 sau lễ ra mắt ngày 19/3.
Người đứng đầu Nvidia cho biết họ đã chi 10 tỷ USD cho chi phí nghiên cứu và phát triển GPU mới. Giá bán trên "chỉ ở mức gần đúng", bởi Nvidia hiện chuyển hướng bán giải pháp trọn gói cho trung tâm dữ liệu, tức còn phần mềm, đóng gói... "Chi phí không chỉ ở chip xử lý, mà còn ở việc thiết kế trung tâm dữ liệu và tích hợp vào trung tâm dữ liệu của công ty khác, điều Nvidia tiên phong", ông nói.
Tại sự kiện giới thiệu GPU Blackwell B200 ngày ở San Jose, California sáng 19/3 (giờ Hà Nội), Nvidia không đề cập giá sản phẩm. Thế hệ chip Blackwell hiện có nhiều lựa chọn, phục vụ từ trung tâm dữ liệu và hệ thống máy chủ AI lớn đến khách hàng cá nhân.
Chẳng hạn, để hướng tới khách hàng mua số lượng lớn, Nvidia đưa ra giải pháp cách đóng gói nhiều chip vào một thiết kế duy nhất, gọi là GB200 NVL72. Gói chứa 72 chip AI, 36 bộ xử lý trung tâm, 600.000 bộ phận và nặng 1.361 kg. CEO Nvidia tiết lộ Amazon, Google, Microsoft và Oracle sẽ dùng GB200 NVL72 cho trung tâm dữ liệu của mình.
Năm ngoái, các đối tác của Nvidia từng bán mẫu H100 với giá 30.000-40.000 USD. Tuy nhiên, theo Tom's Hardware, việc so sánh mức giá rất phức tạp, do B200 sử dụng giải pháp khuôn kép với tổng số bóng bán dẫn lên tới 204 tỷ (104 tỷ mỗi khuôn), còn H100 là 80 tỷ bóng bán dẫn. Phiên bản khuôn kép của H100 là H100 NVL chưa được công khai giá.
Ngoài ra, B200 không được bán đơn lẻ, khiến giá thực tế cao hơn nhiều. Ví dụ, một hệ thống BGX B200 với 8 GPU Blackwell sẽ lên đến hàng trăm nghìn USD, còn DGX B200 SuperPOD với 576 GPU B200 bên trong là hàng triệu USD.
Bảo Lâm