9 月 29 日消息,AMD 在 Huggingface 平臺公布了自家首款 " 小語言模型 "AMD-Llama-135m,,該模型具有推測解碼功能,,擁有 6700 億個 token,采用 Apache 2.0 開源許可,,附模型地址如下。
據(jù)介紹,這款模型主打 " 推測解碼 " 能力,,其基本原理是使用小型草稿模型生成一組候選 token,然后由更大的目標(biāo)模型進(jìn)行驗證,。這種方法允許每次前向傳遞生成多個 token,,而不會影響性能,從而顯著減少 RAM 占用,,實現(xiàn)效率提升,。
AMD 表示,這款模型在四個 AMD Instinct MI250 節(jié)點訓(xùn)練了六天,,其 " 編程專用版本 " 變體 AMD-Llama-135m-code 則額外耗費了四天時間進(jìn)行微調(diào),。
本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點,。轉(zhuǎn)載的所有的文章,、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者,。如涉及作品內(nèi)容、版權(quán)和其它問題,,請及時通過電子郵件或電話通知我們,,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失,。聯(lián)系電話:010-82306118,;郵箱:[email protected]。