Trong bài đăng trên X tuần này, tỷ phú Elon Musk nói các công ty đang phải liên tục đầu tư vào phần cứng AI chỉ để duy trì lợi thế cạnh tranh trong nghiên cứu và phát triển. Ông cho biết trong năm 2024, Tesla sẽ chi hơn nửa tỷ USD mua chip AI của Nvidia, nhưng đây mới là một phần nhỏ.
"500 triệu USD rõ ràng là số tiền lớn nhưng chỉ tương đương hệ thống 10.000 chip H100 của Nvidia. Tesla sẽ phải chi nhiều hơn thế. Tiền 'đặt cược' để cạnh tranh trong lĩnh vực AI ít nhất vài tỷ USD mỗi năm", ông nói.
Trước đó Musk nhiều lần khẳng định trong tương lai, Tesla sẽ là công ty về AI và robot chứ không phải nhà sản xuất ôtô. Trong cuộc họp với nhà đầu tư hồi tháng 7/2023, tỷ phú gốc Nam Phi nói công ty đang xây dựng siêu máy tính Dojo dùng để xử lý lượng dữ liệu khổng lồ, gồm những video, tập tin được thu thập để phục vụ hệ thống tự lái cho xe Tesla.
"Chúng tôi sẽ chi hơn một tỷ USD cho Dojo năm tới", Musk nói.
Dự án Dojo được hé lộ lần đầu tại sự kiện AI Day 2021 và đề cập kỹ hơn tháng 10/2022. Khi đó, Tesla gọi đây là một trong những siêu máy tính mạnh nhất thế giới, có thể đến mức làm sập cả mạng lưới điện của Palo Alto. Giữa năm ngoái, Musk cũng thành lập công ty về trí tuệ nhân tạo xAI và phát hành chatbot Grok để cạnh tranh với ChatGPT của OpenAI.
Không chỉ Elon Musk, Mark Zuckerberg cũng đang săn tìm chip H100 để chạy đua AI. Trong video đăng trên Threads ngày 19/1, CEO Meta cho biết công ty sẽ mua 350.000 GPU H100 để đào tạo mô hình AI của công ty. Ông tiết lộ Meta đang xây dựng trí tuệ tổng quát (General Intelligence) với mục tiêu hỗ trợ các công cụ AI "có sẵn và hữu ích cho mọi người trong cuộc sống hàng ngày". Để đạt được mục tiêu, công ty dự kiến mua khoảng 600.000 chip, gồm của Nvidia và các đơn vị khác.
Trả lời The Verge sau đó, Zuckerberg tiếp tục nói Meta sẽ đạt 600.000 GPU trong kho dự trữ đến cuối năm. "Chúng tôi đã sẵn sàng xây dựng một hệ thống đào tạo AI với quy mô có thể lớn hơn bất kỳ công ty riêng lẻ nào khác", ông nhấn mạnh.
Bộ xử lý đồ họa (GPU) được săn lùng nhờ khả năng tính toán và xử lý dữ liệu tốc độ cao - yếu tố cần thiết đối với mô hình ngôn ngữ lớn (LLM). GPU Nvidia được đặt mua nhiều nhất, trong khi các hãng khác như AMD cũng bắt đầu cuộc đua với sản phẩm tương tự. Trên thị trường, GPU H100 có giá 30.000-40.000 USD (gần 1 tỷ đồng).
Khương Nha