Qualcomm nhảy vào cuộc đua hạ tầng AI với bộ tăng tốc AI200 và AI250 mới

bởi Phát Lâm

Qualcomm đang định vị mình để chiếm một phần trong làn sóng chi tiêu trung tâm dữ liệu tăng vọt trong thập kỷ tới, bằng cách kết hợp chuyên môn về hiệu quả di động với thiết kế rack (giá đỡ) có khả năng mở rộng. Công ty không còn tự giới thiệu mình chỉ là một nhà sản xuất chip điện thoại thông minh nữa; giờ đây, họ đang tham gia vào cuộc đua hạ tầng, vốn sẽ quyết định phần cứng nào cung cấp năng lượng cho thế hệ ứng dụng AI tiếp theo. Qualcomm đang mở rộng ra ngoài nguồn gốc công nghệ di động của mình, thách thức trực tiếp các công ty đang thống trị phần cứng trí tuệ nhân tạo. Công ty chất bán dẫn này đã công bố sẽ tham gia thị trường trung tâm dữ liệu cao cấp bằng hai chip tăng tốc AI mới, đánh dấu động thái tham vọng nhất từ trước đến nay của hãng vào cơ sở hạ tầng tính toán làm nền tảng cho sự bùng nổ AI hiện tại.

Công ty có kế hoạch phát hành hai sản phẩm: AI200AI250, cả hai đều được thiết kế cho khía cạnh suy luận (inference) của triển khai AI. AI200 sẽ có sẵn trên thị trường vào năm 2026, tiếp theo là AI250 vào năm 2027. Cả hai chip có thể được cấu hình thành các rack máy chủ hoàn chỉnh, làm mát bằng chất lỏng cho các trung tâm dữ liệu quy mô lớn. Qualcomm cũng cam kết sẽ cập nhật phần cứng trung tâm dữ liệu AI của mình hàng năm.

Sức mạnh từ Hexagon NPU: AI200 và AI250 tập trung vào suy luận

Mặc dù Qualcomm nổi tiếng nhất với bộ xử lý Snapdragon và chip kết nối không dây dành cho di động, dòng chip tăng tốc AI mới này lại mượn công nghệ từ các đơn vị xử lý thần kinh Hexagon NPU của hãng. Các chip Hexagon được tối ưu hóa cho các tác vụ máy học tiêu thụ ít điện năng trên điện thoại thông minh. Các giám đốc điều hành công ty cho biết những hiệu quả thiết kế tương tự này có thể giúp các hệ thống quy mô rack của Qualcomm có mức chi phí cạnh tranh với các sản phẩm trung tâm dữ liệu từ Nvidia và AMD, những công ty có GPU hiện đang thống trị lĩnh vực này.

Qualcomm Nhảy Vào Cuộc đua Hạ Tầng Ai Với Bộ Tăng Tốc Ai200 Và Ai250 Mới

“Ý tưởng là chứng minh khả năng của mình trong lĩnh vực di động và tính toán biên trước khi mở rộng lên cấp độ trung tâm dữ liệu,” Durga Malladi, Tổng Giám đốc mảng trung tâm dữ liệu và thiết bị biên của Qualcomm, cho biết trong một cuộc họp báo cáo thu nhập. “Kiến trúc của chúng tôi cho phép khách hàng chọn mua hệ thống rack hoàn chỉnh của chúng tôi hoặc kết hợp chip của chúng tôi với các thiết kế của riêng họ.”

Cấu trúc phần cứng của các hệ thống mới từ Qualcomm giống với các nền tảng HGX của Nvidia và Instinct của AMD: các rack lớn chứa hàng chục bộ tăng tốc được kết nối với nhau, hoạt động như một đơn vị tính toán duy nhất. Mỗi rack tiêu thụ khoảng 160 kilowatt điện năng, tương đương với các cụm GPU hiệu suất cao hiện tại. Công ty nhấn mạnh vào điều mà họ gọi là hiệu suất vượt trội trên mỗi đô la trên mỗi watt (performance per dollar per watt).

Không giống như GPU H100 của Nvidia, chuyên về cả đào tạo (training) và suy luận, Qualcomm chỉ nhắm mục tiêu vào các khối lượng công việc suy luận. Điều này bao gồm tạo văn bản bằng các mô hình được đào tạo trước hoặc hỗ trợ các ứng dụng tương tác yêu cầu xử lý theo thời gian thực. Ông Malladi nói rằng những tác vụ này chiếm một phần ngày càng tăng trong việc sử dụng trung tâm dữ liệu AI.

Khả năng cạnh tranh và đối tác lớn đầu tiên của Qualcomm

Công ty từ chối tiết lộ giá cả hoặc số lượng NPU mà một rack đơn lẻ có thể chứa nhưng xác nhận rằng các card AI của họ hỗ trợ 768 gigabyte bộ nhớ, một dung lượng vượt quá khả năng của các sản phẩm tương đương từ Nvidia và AMD. Qualcomm cho biết họ đã phát triển một kiến trúc quản lý bộ nhớ mới được thiết kế để cải thiện tốc độ và giảm mức tiêu thụ năng lượng trong các hoạt động suy luận.

Việc Qualcomm gia nhập thị trường báo hiệu một nỗ lực tăng cường nhằm mở rộng hệ sinh thái chất bán dẫn AI, tiềm ẩn khả năng làm lung lay sự thống trị của Nvidia trong lĩnh vực này. Công ty đã có khách hàng lớn đầu tiên: Humain, có trụ sở tại Ả Rập Xê Út, sẽ triển khai các hệ thống AI200 và AI250 của Qualcomm bắt đầu từ năm 2026. Mối quan hệ đối tác này có thể cung cấp năng lực trung tâm dữ liệu tương đương 200 megawatt khi đi vào hoạt động đầy đủ.

Qualcomm cũng cho biết các hệ thống của họ sẽ có sẵn dưới dạng các thành phần rời rạc cho các nhà khai thác đám mây siêu lớn (hyperscale cloud operators) thích tự thiết kế và lắp ráp các rack của riêng họ. Về nguyên tắc, CPU và card tăng tốc của hãng có thể được cung cấp ngay cả cho các đối thủ cạnh tranh. “Mục tiêu của chúng tôi là mang lại sự lựa chọn cho khách hàng – mua trọn bộ rack hoặc kết hợp và tùy chỉnh,” ông Malladi nói. Chiến lược linh hoạt này có thể là chìa khóa giúp Qualcomm nhanh chóng chiếm được thị phần từ tay các đối thủ lớn.

Bài viết liên quan

Đăng bình luận