「加三嘻行動哇 Yipee! 成為好友」
【Facebook、Youtube、Twitter、Instagram、Telegram、Line】
日前 AI晶片技術廠商 迪普爱思發表將商業化生成式AI的關鍵技術定義為「 Federated Operation of LLM 」,並正在推進技術發展。迪普爱思計劃通過其先進的超低功耗AI晶片革新端側AI,並將在2月26日至29日舉行的2024年世界移動通信大會(MWC)展位號7號館7A62-19上展示端側AI的全面藍圖並計劃擴大與全球夥伴的合作。目前,迪普爱思正在與國內和歐洲的電信公司以及全球數據中心企業建立聯盟,推動網絡和雲系統的兼容性和優化。
在MWC 2024之前,迪普爱思在CES取得了重要里程碑,展示了其第一代端側AI晶片技術。這一成就為公司贏得了三項CES創新獎,鞏固了其作為全球綜合AI芯片技術領導者的地位,並吸引了超過5000名訪客前往其展位。這一成就使迪普爱思的早期參與客戶計劃(EECP)的客戶數量增加了一倍,達到70家全球公司,展示了對迪普爱思端側AI解決方案日益增長的工業需求。
迪普爱思的技術旅程還包括開發了一項開創性技術,使服務器規模的AI和端側大型AI模型的聯合操作成為可能。該公司計劃明年下半年推出能夠在僅幾瓦特的功率下運行同時提供服務器規模AI智能的端側AI芯片。這一舉措源於對端側AI是廣泛採用小型AI模型乃至如LLMs和生成式AI這樣的超大規模AI的根本解決方案的認識。
儘管基於GPGPU的解決方案目前對於ChatGPT和Gemini等LLM服務來說最具成本效益,但全球運行的GPU消耗的總電能已經超過整個國家電能的水平。這造成了一個關鍵問題,使商業化的電力需求和成本不可持續。因此,大型科技公司正在開發自己的AI芯片,優化運行他們的AI算法,旨在取代GPU。
迪普爱思的核心技術因優化了性能,降低了功耗,並優化了端側AI操作成本而脫穎而出。以這些優勢為基礎,迪普爱思致力於將「 LLM的聯合操作 」作為商業化生成式AI的決定性技術開發。這種服務器規模AI與端側大型AI模型之間的協作操作技術,預計將使能耗、碳排放和成本相比僅依賴數據中心至少降低十倍到千倍。
迪普爱思富有遠見的首席執行官Lokwon Kim表示:「 迪普爱思因擁有全球領先的AI操作功耗和成本效率核心技術而獲得國際認可。從今年下半年開始,我們計劃積極進入全球市場,推出由四顆AI芯片組成的第一代產品,開啟AI無處不在的時代。此外,我們旨在開發新技術,使超大規模AI服務在不到5W的功耗下成為可能,提供將巨型人工智能技術從科學領域轉移到人類廣泛使用的核心技術。我們致力於成為全球市場上領先的綜合AI芯片公司。 」
資料來源:美通社、迪普爱思