Không chỉ là phần mềm, cuộc đua AI thực sự còn là về việc sản xuất chip

Không chỉ là phần mềm, cuộc đua AI thực sự còn là về việc sản xuất chip

Không khó để nhận thấy nhiều ứng dụng AI ở cấp độ người tiêu dùng trong năm 2024, chẳng hạn như các công cụ phần mềm như ChatGPT của OpenAI hoặc các sản phẩm phần cứng như AI Pin của Humane. Tuy nhiên đây chỉ là phần nổi của tảng băng khi nói đến việc phát triển AI.

Đang có một cuộc đua khốc liệt khác ở hậu trường: cho dù chúng ta đang xem xét đến phần mềm hay phần cứng dựa trên AI thì thành công của chúng có thể đều bắt nguồn từ việc sản xuất chip. Một số sản phẩm hay dịch vụ AI thì tận dụng khả năng xử lý AI trên thiết bị (on-device AI) còn các sản phẩm khác thì chuyển yêu cầu sang máy chủ đám mây (Cloud AI). Dù bằng cách nào thì các bộ xử lý AI cũng vẫn là xương sống của AI, và đó là lý do tại sao các công ty công nghệ lớn đều đang tham gia vào một cuộc đua ngầm để tạo ra một bộ xử lý AI tốt nhất cho AI PC cũng như máy chủ đám mây.

Tại sao chip lại quan trọng đối với hiệu năng của AI?

Smartphone thì đã có từ lâu còn laptop cũng đang bắt đầu được trang bị các bộ xử lý thần kinh NPU, được thiết kế để chuyên quản lý các tác vụ liên quan đến AI. So với CPU hoặc GPU truyền thống, NPU có khả năng xử lý chức năng và phân tích thông tin cùng lúc tốt hơn nhiều. Vì vậy, trong khi GPU vẫn có thể xử lý một truy vấn đòi hỏi deep learning hoặc machine learning thì NPU lại giúp tăng tốc quá trình này. Sử dụng NPU so với các loại bộ xử lý khác không chỉ cho phép tính toán AI nhanh hơn, mà còn hỗ trợ cho các quy trình làm việc đòi hỏi cao hơn. Đó là lý do Apple đã cung cấp SoC với NPU trên cả iPhone và các thiết bị di động khác của họ trong nhiều năm qua. NPU gần đây cũng đã trở thành một phần quan trọng của phần cứng PC khi 2 tên tuổi sản xuất CPU lớn nhất là Intel và AMD đều đã tích hợp NPU vào chip của họ.

Tuy nhiên NPU chỉ giúp chạy các tính năng AI nội bộ trong khi hầu hết các công cụ và tính năng phần mềm dựa trên AI ngày nay đều chạy bên ngoài thiết bị, chuyển các yêu cầu xử lý sang máy chủ đám mây ở một nơi khác. Ví dụ khi bạn hỏi các chatbot AI như ChatGPT, Copilot hoặc Gemini một câu hỏi thì nó sẽ gửi yêu cầu đó đến máy chủ và xử lý yêu cầu đó. Nhưng điều quan trọng cần nhớ là các máy chủ cũng cần bộ xử lý AI. Và trên thực tế, các bộ xử lý AI tiên tiến được sử dụng trong các máy chủ ở trung tâm dữ liệu đang có nhu cầu cao hơn nhiều so với các loại chip dành cho người tiêu dùng. Nvidiahiện là công ty dẫn đầu ngành về bộ xử lý AI, và GPU H100 chuyên dùng cho các tác vụ AI và deep learning của họ đang rất khó tìm, với giá hơn 40.000 USD mỗi chiếc trên thị trường đồ cũ.

Do đó mọi công ty trong ngành đều chú ý đến nhất cử nhất động của Nvidia với các GPU tiên tiến của họ, bao gồm cả H100 nói trên và H200 mới được công bố. Những con chip này rất quan trọng để chạy các mô hình ngôn ngữ lớn LLM, hỗ trợ nhiều tính năng AI tạo sinh, với những thứ hiện hữu rõ ràng là chatbot nhưng cũng có các trình tạo ảnh, trình tạo video…

Các công ty tạo ra các tính năng phần mềm như Google, Microsoft, OpenAI…, đều cần chip AI tiên tiến để cung cấp sức mạnh cho dịch vụ của họ. Vì vậy thay vì chỉ chạy đua để xây dựng các công cụ phần mềm AI tốt nhất thì họ cũng đang cạnh tranh để thiết kế và mua lại những con chip sẽ đưa các ứng dụng AI của họ vào cuộc sống.

Công ty nào cũng muốn có phần trong việc tạo chip AI

Đó là lý do tại sao khi nhắc đến bất kỳ công ty công nghệ lớn nào thì cũng đều nghe đến việc họ sản xuất, thiết kế hoặc chế tạo chip AI dưới hình thức này hay hình thức khác:

  • Vào tuần trước, Google đã công bố một loại bộ xử lý mới có tên là Google Axion. Đây là một loại chip Arm tuỳ chỉnh được thiết kế cho các trung tâm dữ liệu hỗ trợ Google Cloud
  • Microsoft có Azure Maia và Azure Cobalt, 2 bộ xử lý AI sắp ra mắt trong năm nay nhằm tránh sự phụ thuộc vào các sản phẩm của Nvidia
  • Meta cũng đã thâm nhập vào lĩnh vực sản xuất chip với con chip MTIA (Meta Training and Inference Accelerator) vào năm ngoái đồng thời cũng đã xem xét thế hệ tiếp theo vào tuần trước
  • Amazon Web Services thì có bộ xử lý Trainium2 tuỳ chỉnh mới cho các tác vụ dựa trên AI, đồng thời cũng sử dụng chip Nvidia cho các trung tâm dữ liệu của mình
  • CEO OpenAI, Sam Altman được cho là cũng đang xem xét các bộ xử lý AI tuỳ chỉnh

Hiện tại thì đa phần các công ty đều cần các GPU H100 của Nvidia để xử lý AI dựa trên đám mây. Amazon Web Services, Microsoft Azure và Google Cloud là 3 nhà cung cấp dịch vụ xử lý đám mây lớn nhất hiện nay, và tất cả đều phụ thuộc vào Nvidia để cung cấp AI, khả năng tính toán deep learning và machine learning cho khách hàng của họ. CEO Meta, Mark Zuckerburg, trước đó cũng cho biết đang lên kế hoạch mua 340.000 GPU Nvidia H100 vào cuối năm nay.

Những cái tên nêu trên đều đang phụ thuộc vào Nvidia, và cũng đã nhấn mạnh rất nhiều vào mối quan hệ lâu dài với công ty sản xuất chip này. Nhưng điều đó không thể xảy ra mãi mãi: Amazon, Microsoft, Google và Meta đều đang chuẩn bị các giải pháp chip thay thế của riêng mình, và công ty nào cạnh tranh được với Nvidia thì có thể sẽ là người chiến thắng cuối cùng trong cuộc đua AI.

Việc sản xuất chip AI cũng mang lại rất nhiều tiền

Vì vậy, không khó để nhìn ra việc các công ty đang đối đầu với nhau để phát triển các tính năng phần mềm và LLM tốt hơn. Tuy nhiên nhìn sâu hơn thì Microsoft, Google, Amazon và Meta cũng cần phải đánh bại nhau về phần cứng để có thể giành chiến thắng về phần mềm. 2 khía cạnh đó của AI gắn liền với nhau, ít nhất là trong bối cảnh thị trường hiện tại.

Nvidia hiện là vua của AI và thành công của mọi công ty khác đều phụ thuộc vào việc tiếp cận với các GPU của Nvidia. Thành công của Nvidia cũng cho thấy rõ động cơ tài chính ở đây: tại thời điểm viết bài thì giá cổ phiếu của Nvidia đã tăng 218,5% trong năm qua và nó đã trở thành công ty nghìn tỉ USD nhờ sự thống trị trong lĩnh vực sản xuất chip AI.

Và nếu có một bài học có thể rút ra trong quá trình bùng nổ AI hiện tại, thì đó có lẽ là việc các công ty công nghệ sẽ tồn tại lâu dài hơn nếu họ có thể chế tạo thành công phần cứng AI của riêng mình.