C114通信網(wǎng)  |  通信人家園

資訊
2024/11/8 10:38

AMD發(fā)布首個10億開源AI模型 OLMo,用 Instinct MI250 GPU 集群訓(xùn)練而成

IT之家  故淵

AMD 公司于 10 月 31 日發(fā)布博文,宣布推出首個完全開放的 10 億參數(shù)語言模型系列 AMD OLMo,為開發(fā)者和研究人員提供強大的 AI 研究工具。

AMD OLMo 模型使用從零開始訓(xùn)練的 10 億參數(shù)語言模型系列(LMs),在 AMD Instinct MI250 GPU 集群上訓(xùn)練,使用了超過 1.3 萬億個 tokens 進行預(yù)訓(xùn)練,讓模型在處理自然語言任務(wù)時具有強大的推理能力。

IT之家援引新聞稿,OLMo 模型采用解碼器(decoder-only)架構(gòu),并通過下一個標記預(yù)測(next-token prediction)進行訓(xùn)練,這種架構(gòu)在生成文本和理解上下文方面表現(xiàn)出色。

與其他同類開源模型相比,AMD OLMo 在推理能力和聊天能力上表現(xiàn)優(yōu)異。尤其是在多個基準測試中,其性能與最新的 OLMo 模型相當,且計算預(yù)算僅為其一半。

 

 

 

 

OLMo 除數(shù)據(jù)中心使用外,更支持配備 NPU(Neural Processing Unit,神經(jīng)處理單元)的 AMD Ryzen AI PC 能夠部署模型,使開發(fā)者能在個人設(shè)備提供 AI 功能。

AMD OLMo 是完全開源的,這意味著其他開發(fā)者和公司可以自由使用和修改這些模型,這讓其成為希望探索 AI 技術(shù)替代方案的企業(yè)的一個可行選擇。

給作者點贊
0 VS 0
寫得不太好

  免責聲明:本文僅代表作者個人觀點,與C114通信網(wǎng)無關(guān)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關(guān)內(nèi)容。

熱門文章
    最新視頻
    為您推薦

      C114簡介 | 聯(lián)系我們 | 網(wǎng)站地圖 | 手機版

      Copyright©1999-2025 c114 All Rights Reserved | 滬ICP備12002291號

      C114 通信網(wǎng) 版權(quán)所有 舉報電話:021-54451141