IBM公佈 Mixtral-8x7B 開源語言模型在watsonx平台上正式啟用

「加三嘻行動哇 Yipee! 成為好友」

FacebookYoutubeTwitterInstagramTelegramLine

IBM宣佈由Mistral AI公司開發的大型語言模型(LLM) Mixtral-8x7B 正式進入watsonx人工智慧與資料平臺。該模型的優化版本在內部測試中表現卓越,與常規模型相比,吞吐量提高50%,可能將時間延遲降低35-75%,加速獲得洞察的速度,具體取決於批處理量的大小。這一突破是通過量化過程實現的,該過程減少了模型大小和內存需求,從而提高處理速度,同時降低了成本和能耗。

Mixtral-8x7B的引入擴展了IBM的開放、多模型戰略,提供客戶更多選擇和靈活性,以滿足跨行業的企業需求。IBM通過數十年的人工智能研發、與Meta和Hugging Face的開放協作以及與模型領導者的合作夥伴關係,不斷擴展watsonx.ai模型目錄,引入新的功能、語言和模型。

IBM的企業就緒基礎模型和watsonx人工智能與數據平臺幫助客戶運用生成式人工智慧獲得新的洞察和效率,並創建基於信任原則的新業務模式。IBM可根據客戶所需業務領域(如金融)的合適用例和性價比目標,協助選擇適用的模型。

Mixtral-8x7B模型結合了稀疏建模和專家混合技術,前者是一種創新技術,僅查找和使用數據中最重要的部分,以創建更高效的模型;後者則是將擅長解決不同問題的不同模型(即”專家”)結合在一起的技術。Mixtral-8x7B以其快速處理和分析大量數據的能力而受到廣泛關注,為用戶提供與上下文相關的深入見解。

同時,IBM還在watsonx上提供由ELYZA公司開源的日本LLM模型ELYZA-japanese-Llama-2-7b。此外,IBM亦提供Meta的開源模型Llama-2-13B-chat和Llama-2-70B-chat以及其他第三方模型,未來幾個月將推出更多模型,持續擴展watsonx的豐富功能。

延伸閱讀:

LTIMindtree與IBM聯手,優化量子創新生態系統

IBM 調查 64% CEO 感受加速採用生成式 AI 的壓力

Toppan Photomask與IBM簽署半導體EUV光罩聯合研發協議

新一代 IBM 量子處理器「蒼鷺」Heron與 IBM Quantum System Two亮相

IBM 專訪:AI 人工智慧可以信任嗎?監管 AI 核心原則公開

圖片及資料來源:美通社、IBM

好友人數

大家對網站文章上的一個讚、+1及轉分享,都是對我們的最好的鼓勵及繼續下去的原動力,請大家不要吝嗇。

下一頁

ADI 和 BMW 推出 10Mb 車載乙太網路技術

週二 3 月 12 , 2024
「加三嘻行動哇 Yipee! 成為好友」 【Facebook、Youtube、Twitter、Ins […]
Shares