MI300X thuộc dòng Instinct MI300 chuyên cho các mô hình AI tạo sinh - công nghệ trong ChatGPT và các chatbot khác. Sản phẩm ra mắt ngày 13/6 được đánh giá có thông số tương đương chip H100 mạnh nhất từ Nvidia.
Cụ thể, MI300X sử dụng kiến trúc CDNA được thiết kế cho mô hình ngôn ngữ lớn và mô hình AI tiên tiến. "Trọng tâm của chip là khả năng xử lý đồ họa. GPU đang cho phép tạo ra AI mạnh mẽ", bà Lisa Su, CEO AMD, cho biết.
Theo bà Su, MI300X có thể sử dụng bộ nhớ 192 GB khi xử lý AI, cao nhất hiện nay trên thị trường. Khả năng khai thác bộ nhớ sẽ tăng tốc xử lý nhiều dữ liệu cùng lúc. Đối thủ Nvidia H100 hiện hỗ trợ bộ nhớ 120 GB.
Các mô hình AI tạo sinh hiện sử dụng nhiều bộ nhớ. Tại sự kiện, AMD đã trình diễn MI300X chạy mô hình 40 tỷ tham số có tên Falcon. Tuy nhiên, mô hình này thấp hơn GPT-3 của OpenAI, có tới 175 tỷ tham số.
"Kích thước dữ liệu ngày càng lớn, các cỗ máy thực sự cần nhiều GPU để chạy những mô hình ngôn ngữ lớn mới nhất", bà Su cho hay. Đồng thời, bà cũng cho biết chip AMD còn có thêm tính năng bộ nhớ bổ sung, giúp nhà phát triển có thể triển khai hệ thống lớn với khả năng chiếm dụng GPU nhỏ nhất.
AMD cũng xây dựng công nghệ có tên Infinity Architecture, giúp kết hợp 8 bộ MI300X trong một hệ thống xử lý AI. Nvidia và Google cũng đã phát triển hệ thống tương tự, kết hợp 8 GPU trở lên trong một hộp duy nhất.
Đến nay, một trong những lý do nhà phát triển AI ưa thích chip Nvidia là gói phần mềm được phát triển hoàn thiện có tên CUDA, cho phép họ truy cập các tính năng phần cứng cốt lõi của chip. Tuy nhiên, AMD cho biết họ cũng có sản phẩm tương tự gọi là ROCm.
AMD dự kiến bán MI300X vào cuối năm nay, nhưng chưa công bố giá. Theo CNBC, sản phẩm sẽ thấp hơn 40.000 USD - mức giá Nvidia đang áp dụng cho chip H100 mạnh nhất của mình. "Giá rẻ hơn giúp AMD tăng cạnh tranh, cũng như giúp chi phí tạo hệ thống đào tạo AI tạo sinh rẻ hơn trong tương lai", trang này bình luận. "Nếu chip AI của AMD được các nhà phát triển và sản xuất máy chủ chấp nhận, đó có thể là thị trường lớn chưa được khai phá".
Theo bà Su, chip AI hiện mới trong giai đoạn đầu phát triển. "AI là cơ hội tăng trưởng dài hạn lớn nhất và mang tính chiến lược của công ty", bà nói. "Chúng tôi dự đoán thị trường chip AI cho trung tâm dữ liệu sẽ tăng từ 30 tỷ USD trong năm nay lên hơn 150 tỷ USD năm 2027, với tốc độ tăng trưởng gộp hàng năm trên 50%".
Bảo Lâm (theo CNBC, Bloomberg)