top of page

ASUS giới thiệu thiết kế AI POD tiên tiến phối hợp cùng NVIDIA tại Computex 2025

Tại sự kiện Computex 2025, ASUS công bố bước tiến mới trong hạ tầng AI thông minh với thiết kế AI POD tiên tiến, dựa trên kiến trúc tham chiếu được xác nhận bởi NVIDIA® Enterprise AI Factory. Các giải pháp này có sẵn dưới dạng hệ thống được NVIDIA chứng nhận trên nền tảng Grace Blackwell, HGX và MGX, hỗ trợ cả trung tâm dữ liệu làm mát bằng không khí và chất lỏng.


Được thiết kế để tăng tốc triển khai AI tác nhân ở mọi quy mô, giải pháp mang lại khả năng mở rộng, hiệu suất và hiệu quả nhiệt hàng đầu – là lựa chọn tối ưu cho doanh nghiệp triển khai AI với tốc độ và quy mô chưa từng có
Được thiết kế để tăng tốc triển khai AI tác nhân ở mọi quy mô, giải pháp mang lại khả năng mở rộng, hiệu suất và hiệu quả nhiệt hàng đầu – là lựa chọn tối ưu cho doanh nghiệp triển khai AI với tốc độ và quy mô chưa từng có

NVIDIA Enterprise AI Factory kết hợp với ASUS AI POD


Thiết kế xác thực NVIDIA Enterprise AI Factory kết hợp ASUS AI POD cung cấp hướng dẫn phát triển, triển khai và quản lý AI tác nhân, AI vật lý và khối lượng công việc HPC trên nền tảng Blackwell tại chỗ. Dành cho IT doanh nghiệp, giải pháp này tăng tốc điện toán, mạng, lưu trữ và phần mềm để rút ngắn thời gian triển khai và giảm rủi ro. Các kiến trúc tham chiếu được thiết kế giúp khách hàng áp dụng các thực hành được xác nhận, đóng vai trò như một kho kiến thức chuẩn hóa cho nhiều ứng dụng.


Đối với nhu cầu điện toán quy mô lớn, ASUS AI POD tiên tiến sử dụng NVIDIA GB200/300 NVL72 và mạng Quantum InfiniBand hoặc Spectrum-X cho phép triển khai 576 GPU không tắc nghẽn trên 8 tủ rack (làm mát bằng chất lỏng), hoặc 72 GPU trong một rack (làm mát bằng không khí). Kiến trúc siêu mật độ và hiệu quả này tái định nghĩa hiệu suất và hiệu quả của tính toán suy luận AI. 


Tủ rack sẵn sàng cho AI: Năng lực mở rộng cho LLM và ứng dụng nhập vai


ASUS giới thiệu các thiết kế rack tuân thủ NVIDIA MGX với dòng ESC8000, tích hợp hai bộ xử lý Intel® Xeon® 6 và GPU RTX PRO™ 6000 Blackwell Server Edition cùng SuperNIC NVIDIA ConnectX-8 – hỗ trợ tốc độ đến 800Gb/s – mang lại hiệu suất vượt trội cho AI hiện đại. Việc tích hợp nền tảng phần mềm NVIDIA AI Enterprise đảm bảo giải pháp toàn diện, dễ mở rộng, đáp ứng yêu cầu khắt khe nhất của điện toán hiện đại.


Ngoài ra, kiến trúc tham chiếu NVIDIA HGX do ASUS tối ưu mang lại hiệu quả, quản lý nhiệt và mật độ GPU vượt trội cho tinh chỉnh AI, suy luận và huấn luyện LLM. Được xây dựng trên ASUS XA NB3I-E12 (HGX B300) hoặc ESC NB8-E11 (HGX B200), hệ thống rack tập trung này hỗ trợ cả làm mát bằng chất lỏng và không khí, đảm bảo năng lực sản xuất cao, giảm tổng chi phí sở hữu (TCO) và duy trì hiệu suất ổn định.


Được thiết kế cho AI Factory – Kích hoạt AI tác nhân thế hệ tiếp theo 


Tích hợp trình diễn AI tác nhân của NVIDIA, hạ tầng ASUS hỗ trợ AI ra quyết định tự động, học hỏi thời gian thực và mở rộng cho nhiều ứng dụng doanh nghiệp. Là nhà tiên phong toàn cầu về giải pháp hạ tầng AI, ASUS mang đến hiệu suất, hiệu quả và độ tin cậy vượt trội cho cả trung tâm dữ liệu làm mát bằng không khí và chất lỏng.


Hệ thống mạng tốc độ cao, cáp truyền và thiết kế rack lưu trữ được chứng nhận bởi NVIDIA như RS501A-E12-RS12U và dòng VS320D đảm bảo khả năng mở rộng liền mạch cho AI/HPC. Công cụ lập lịch tải SLURM và quản lý mạng NVIDIA UFM tối ưu hóa tài nguyên, trong khi hệ thống lưu trữ song song WEKA và ASUS ProGuard SAN mang lại hiệu suất xử lý dữ liệu tốc độ cao.


Máy chủ ASUS hiện đã có mặt trên toàn cầu

Máy chủ ASUS hiện đã có mặt trên toàn cầu. Truy cập https://servers.asus.com hoặc liên hệ đại diện ASUS tại địa phương để biết thêm chi tiết


ASUS còn cung cấp nền tảng phần mềm và dịch vụ toàn diện như ASUS Control Center (Data Center Edition) và Trung tâm Triển khai Hạ tầng ASUS (AIDC), đảm bảo phát triển và triển khai AI liền mạch. Giải pháp được xác thực L11/L12 từ ASUS giúp doanh nghiệp triển khai AI quy mô lớn một cách tự tin với dịch vụ hỗ trợ hàng đầu. Từ thiết kế đến triển khai, ASUS là đối tác đáng tin cậy cho đổi mới AI Factory thế hệ tiếp theo.



bottom of page