人工智能基礎設施供應商SuperX(NASDAQ:SUPX)日前推出最新旗艦產品XN9160-B300 AI服務器。該服務器搭載NVIDIA Blackwell GPU(B300),旨在滿足AI訓練、機器學習(ML)和高性能計算(HPC)等工作負載對可擴展、高性能計算日益增長的需求,能夠為關鍵任務型數據中心環境提供有力支持。
據介紹,XN9160-B300 AI服務器專為加速大規模分布式AI訓練和AI推理工作負載而打造,其核心是搭載8顆NVIDIA Blackwell B300 GPU的NVIDIA HGX B300模組。Blackwell B300 GPU是NVIDIA基于Blackwell Ultra架構開發的新一代AI加速芯片,與Blackwell相比,Blackwell Ultra每塊芯片的NVFP4計算能力提升了50%,同時HBM容量也增加了50%,從而能夠在不影響效率的情況下實現更大的模型和更快的吞吐量。因此,該服務器可適用于構建和運營萬億參數基礎模型,能夠執行百億億次(Exascale)級科學計算。
針對GPU密集型任務,該服務器也進行了優化,在基礎模型訓練與推理,包括強化學習(RL)、蒸餾技術和多模態AI模型等領域表現出色,同時也能為氣候建模、藥物發現、地震分析和保險風險建模等HPC工作負載提供高性能。同時,該服務器在顯存容量方面也實現了重大突破,提供了2304GB的統一HBM3E顯存(每顆GPU 288GB)。高容量的顯存池對于消除內存卸載、支持更大模型的駐留、以及管理高并發、長上下文的生成式AI和大型語言模型所需的海量鍵/值緩存至關重要。
對于當前動輒需要數千億甚至萬億參數的基礎模型,單機服務器性能再強,若無法高效擴展,也難以應對真正的AI工廠級任務。為此,XN9160-B300 AI服務器通過8個用于InfiniBand的800Gb/s OSFP端口或雙400Gb/s以太網,能夠便捷實現系統擴展。而通過第五代NVLink互連技術進一步確保了板載的8顆GPU無縫通信,能夠滿足超大規模模型訓練和分布式推理的需求。