《電子技術應用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 日本聯(lián)合研究團隊發(fā)布Fugaku-LLM大模型

日本聯(lián)合研究團隊發(fā)布Fugaku-LLM大模型

在富岳超算上訓練大模型
2024-05-11
來源:快科技

5 月 11 日消息,,由多方企業(yè)和機構組成的日本聯(lián)合研究團隊昨日發(fā)布了 Fugaku-LLM 大模型,。該模型的最大特色就是其是在 Arm 架構超算“富岳”上訓練的。

Fugaku-LLM 模型的開發(fā)于 2023 年 5 月啟動,初期參與方包括富岳超算所有者富士通,、東京工業(yè)大學、日本東北大學和日本理化學研究所(理研),。

而在 2023 年 8 月,,另外三家合作方 —— 名古屋大學、CyberAgent(也是游戲企業(yè) Cygames 的母公司)和 HPC-AI 領域創(chuàng)企 Kotoba Technologies 也加入了該模型研發(fā)計劃,。

1 - Copy.png

▲ 富岳超算,。圖源富士通新聞稿

在昨日發(fā)布的新聞稿中,研究團隊表示其充分挖掘了富岳超算的性能,,將矩陣乘法的計算速度提高了 6 倍,,通信速度也提升了 3 倍,證明大型純 CPU 超算也可用于大模型訓練,。

Fugaku-LLM 模型參數(shù)規(guī)模為 13B,,是日本國內(nèi)最大的大型語言模型。

其使用了 13824 個富岳超算節(jié)點在 3800 億個 Token 上進行訓練,其訓練資料中 60% 為日語,,其他 40% 包括英語,、數(shù)學、代碼等部分,。

該模型的研究團隊宣稱 Fugaku-LLM 模型可在交流中自然使用日語敬語等特殊表達,。

具體到測試成績上,該模型在日語 MT-Bench 模型基準測試上的平均得分為 5.5,,排在基于日本語料資源的開放模型首位,,并在人文社科類別中得到了 9.18 的高分。

目前 Fugaku-LLM 模型已在 GitHub 和 Hugging Face 平臺公開,,外部研究人員和工程師可在遵守許可協(xié)議的前提下將該模型用于學術和商業(yè)目的,。


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點,。轉載的所有的文章、圖片,、音/視頻文件等資料的版權歸版權所有權人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權者。如涉及作品內(nèi)容,、版權和其它問題,,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,,避免給雙方造成不必要的經(jīng)濟損失,。聯(lián)系電話:010-82306118;郵箱:[email protected],。