Supermicro推出三款基於NVIDIA技術的全堆疊結構、可立即部署型生成式AI SuperCluster,從企業規模擴大至LLM硬體基礎架構

「加三嘻行動哇 Yipee! 成為好友」

FacebookYoutubeTwitterInstagramTelegramLine

Supermicro 推出最新的 Supermicro SuperCluster 能為現今及未來大型語言模型(Large Language Model,LLM)硬體基礎設施提供核心建構組件,加速生成式 AI 部署。

Supermicro三款 SuperCluster 已經上市並可被用於生成式 AI 工作運行。這些伺服器內的 4U 液冷系統或 8U 氣冷系統是專為 LLM 訓練性能以及高度批次大小且大量的 LLM 推論所設計。配備了 1U 氣冷 Supermicro NVIDIA MGXTM 系統的第三款 SuperCluster 超級叢集則針對雲端級推論進行了最佳化。

Supermicro 4U NVIDIA HGX H100/H200 8-GPU 系統透過液冷技術使 8U 氣冷系統運算密度加倍,同時降低能耗量與總體擁有成本(TCO)。這些系統旨在為了支援下一代 NVIDIA 的 Blackwell 架構 GPU。Supermicro 冷卻分配單元(Cooling Distribution Unit,CDU)與冷卻分配分流管(Cooling Distribution Manifold,CDM)是主要冷卻液流動脈絡,可將冷卻液輸送至 Supermicro 定製的直達晶片(Direct-to-Chip,D2C)冷板,使 GPU 和 CPU 處於最佳運行溫度,進而實現效能最大化。

搭載 NVIDIA HGX H100/H200 8-GPU 的系統非常適合用於訓練生成式 Al。透過 NVIDIA NVLink 技術高速互連的 GPU,以及高 GPU 記憶體頻寬與容量,將成為符合成本效益地運行 LLM 的核心關鍵。Supermicro 的 SuperCluster 具備龐大 GPU 共用資源,能作為一個 AI 超級電腦進行運算作業。

無論是導入一個最初就以數兆級詞元(token)資料集進行完整訓練的大型基礎模型,或開發一個雲端級 LLM 推論基礎架構,具有無阻式 400Gb/s 網路結構的主幹枝葉式架構(Spine and Leaf Network Topology)都能從 32 個運算節點順暢地擴展至數千個節點。針對完全整合的液冷系統, Supermicro 在產品出廠前會藉由經認證的測試流程徹底驗證與確保系統運行成效與效率。

採用了 NVIDIA GH200 Grace Hopper Superchip 的 Supermicro NVIDIA MGX 系統設計將能打造出未來 AI 運算叢集的架構樣式以解決生成式 AI 的關鍵瓶頸:運行高推論批次大小的 LLM 所需的 GPU 記憶體頻寬及容量,進而降低營運成本。具 256 節點的運算叢集能實現雲端級大量推論算力引擎,並易於部署與擴充。

透過 GPU 間可實現的頂級互連效能,Supermicro 的 SuperCluster 針對 LLM 訓練、深度學習,以及大量且高批次推論進行了最佳化。Supermicro 的 L11 和 L12 驗證測試結合了現場部署服務,可為客戶提供更順暢體驗。

延伸閱讀:

專為生成式 AI 量身設計,新一代 Dell PowerEdge 伺服器現身

迎接5G人工智慧浪潮,技嘉旗艦級 AI 伺服器、模組化邊緣運算平台、自駕車技術亮相

Supermicro 擴展 AI 伺服器,性能推向邊緣運算環境

Supermicro 推出 AI 儲存的機櫃級伺服器,加速 AI 訓練和推論的資料存取

Kioxia 硬碟與 Hewlett Packard 企業伺服器發射太空,為國際太空站提供資料儲存

圖片及資料來源:美通社、Supermicro

好友人數

大家對網站文章上的一個讚、+1及轉分享,都是對我們的最好的鼓勵及繼續下去的原動力,請大家不要吝嗇。

下一頁

F1 賽季開跑!麥拉倫 F1 賽車 1:1 比例樂高模型在台灣亮相

週六 3 月 23 , 2024
「加三嘻行動哇 Yipee! 成為好友」 【Facebook、Youtube、Twitter、Ins […]
Shares