WEKA推出全新WEKApod裝置,協助加速 AI 部署

「加三嘻行動哇 Yipee! 成為好友」

FacebookYoutubeTwitterInstagramTelegramLine

資料平台公司 WekaIO(WEKA)宣布推出兩款全新 WEKApod 設備,包括專為大規模 AI 部署設計的 WEKApod Nitro 和適合小規模 AI 部署及高性能資料應用的 WEKApod Prime,這些設備為企業提供靈活、經濟且可擴展的解決方案,能夠迅速推動 AI 創新。

WEKA 資料平台專為應對 AI 密集工作負載而設計,支援高效 GPU 利用率和增強檢索生成(RAG)資料管道,並為 AI 模型訓練提供快速、穩定的寫入效能。其雲端原生架構讓企業能夠在混合雲環境中靈活部署,並實現資料無縫移轉,適合各產業生成式 AI 和性能密集型應用。

WEKApod 系列提供以下關鍵優勢:

  • WEKApod Nitro:適用於大規模 AI 部署的高性能方案,單一集群可提供超過 1800 萬次 IOPS,支持大規模 AI 模型的訓練與推理。WEKApod Nitro 獲得 NVIDIA DGX SuperPOD 認證,資料容量從 0.5PB 起,可逐步擴展,特別適合需要高效運算資源的 AI 企業。
  • WEKApod Prime:針對成本效益和靈活性設計的解決方案,支持高達 320 GB/s 的讀取頻寬和 96 GB/s 的寫入頻寬,提供最高 1200 萬次 IOPS,適合進行 AI 訓練和推理的組織。Prime 的容量從 0.4PB 起跳,可根據需求擴展到 1.4PB,並可選擇增添附加功能,避免不必要的資源浪費。

延伸閱讀:

Supermicro 推出全新 AI 就緒伺服器,升級資料中心的運算效能

神雲科技發表全新伺服器系列,搭載最新AMD EPYC 9005 處理器、強化AI資料中心效能

Supermicro 推出 AI 多功能伺服器系統,優化邊緣運算應用

AMI 通過 NVIDIA MGX 伺服器驗證,成首個合規獨立韌體供應商

TYAN 展出優化資料中心和大規模AI/HPC的AMD EPYC伺服器

圖片及資料來源:WekaIO

好友人數

大家對網站文章上的一個讚、+1及轉分享,都是對我們的最好的鼓勵及繼續下去的原動力,請大家不要吝嗇。

發表迴響

這個網站採用 Akismet 服務減少垃圾留言。進一步了解 Akismet 如何處理網站訪客的留言資料

下一頁

DeepL 採用 NVIDIA DGX SuperPOD 加速語言AI

週五 11 月 1 , 2024
「加三嘻行動哇 Yipee! 成為好友」 【Facebook、Youtube、Twitter、Ins […]
Shares