「加三嘻行動哇 Yipee! 成為好友」
【Facebook、Youtube、Twitter、Instagram、Telegram、Line】
Supermicro 擴闊 8-GPU、4-GPU 和 MGX 產品線來支援 NVIDIA HGX H200 和 Grace Hopper 超級晶片,為大型語言模型應用程式提供更快更大的 HBM3e 記憶體,載 NVIDIA HGX 8-GPU 的 Supermicro 新型創新 4U 液冷伺服器使每機架的計算密度提高了一倍,功率高達每機架 80 千瓦,降低了總體擁有成本 (TCO)
Supermicro 即將推出配備 H200 Tensor Core GPU 的全新 NVIDIA HGX H200 產品線,從而擴展在人工智慧領域的影響力。Supermicro 的人工智慧平台(包括 8U 和 4U 通用型 GPU 系統)均可直接插入 HGX H200 8GPU 和 HGX H200 4GPU,相較於 NVIDIA H100 Tensor Core GPU,HGX H200 的 HBM3e 記憶體容量和頻寬分別提高了近 2 倍和 1.4 倍。
此外,Supermicro NVIDIA MGX 系統的廣泛產品組合還支援即將推出的搭載 HBM3e 記憶體的 NVIDIA Grace Hopper 超級晶片。憑藉效能、可擴展性和可靠性,Supermicro 的機架式人工智慧可加速計算密集型生成式人工智慧、大型語言模型 (LLM) 訓練和 HPC 應用程式的效能,同時滿足不斷增長的模型規模發展需求。Supermicro 利用積木式架構,可以快速將新技術推向市場,使客戶能夠盡早提高生產力。
Supermicro 還推出了密度相當高的伺服器,在 4U 液冷系統中搭載 NVIDIA HGX H100 8-GPU 系統,採用最新的 Supermicro 液冷解決方案。這款高效能 GPU 伺服器,使數據中心營運商能夠减少佔地面積和能源成本,同時在單個機架中提供最高效能的人工智能訓練能力。憑藉密度最高的 GPU 系統,企業可以利用尖端的液冷解決方案降低總體擁有成本。
配備 NVIDIA GPU 的 Supermicro 伺服器
Supermicro 設計並製造了多種不同外形尺寸的人工智能伺服器產品組合。受歡迎的 8U 和 4U 通用型 GPU 系統採用了四路和八路的 NVIDIA HGX H100 GPU ,現在可以直接插入全新 H200 GPU,在更短的時間內訓練更大的語言模型。每個 NVIDIA H200 GPU 包含 141GB 記憶體,頻寬為 4.8 TB/s。
此外,最近推出的搭載 NVIDIA GH200 Grace Hopper 超級晶片的 Supermicro MGX 伺服器也採用了搭載 HBM3e 記憶體的 NVIDIA H200 GPU。
全新 NVIDIA GPU 能夠加速當今和未來的大型語言模型 (LLM),使其在更緊湊、更高效的集群中容納上千億的參數,從而以更短的時間訓練生成式人工智能,同時允許在一個系統中容納多個更大的模型,進行實時 LLM 推理,為數百萬用戶提供生成式人工智慧服務。
在 SC23 大會上,Supermicro 展示了最新款的 4U 通用型 GPU 系統,該系統採用八路 NVIDIA HGX H100 及公司最新的液冷創新技術,進一步提高了密度和效率,推動了人工智能的發展。憑藉 Supermicro 領先業界、為綠色計算而設的 GPU 和 CPU 冷板、CDU(冷卻液分配裝置)和 CDM(冷卻液分配歧管),全新的 4U 通用型液冷 GPU 系統亦為八路 NVIDIA HGX H200 做好了準備,透過 Supermicro 完全集成的機架式液冷解決方案和 L10、L11 和 L12 驗證測試,將大幅减少數據中心的佔地面積、電力成本和部署障礙。
延伸閱讀:
搭載 NVIDIA GH200 Grace Hopper 超級晶片的 Supermicro 伺服器開始出貨
AI 伺服器大廠 Supermicro 將推動資料中心採用液冷技術
Supermicro X13 伺服器家族將全面支援第 5 代 Intel Xeon 處理器
Supermicro 推出新款 H13 WIO 伺服器,搭載 AMD EPYC 8004 處理器
Supermicro 推出內建 192 核心 ARM CPU 的低功耗伺服器
資料來源:美通社、Supermicro