9 月 29 日消息,,AMD 在 Huggingface 平臺公布了自家首款 " 小語言模型 "AMD-Llama-135m,該模型具有推測解碼功能,,擁有 6700 億個 token,,采用 Apache 2.0 開源許可,附模型地址如下,。
據(jù)介紹,,這款模型主打 " 推測解碼 " 能力,其基本原理是使用小型草稿模型生成一組候選 token,然后由更大的目標(biāo)模型進(jìn)行驗(yàn)證,。這種方法允許每次前向傳遞生成多個 token,,而不會影響性能,從而顯著減少 RAM 占用,,實(shí)現(xiàn)效率提升,。
AMD 表示,這款模型在四個 AMD Instinct MI250 節(jié)點(diǎn)訓(xùn)練了六天,,其 " 編程專用版本 " 變體 AMD-Llama-135m-code 則額外耗費(fèi)了四天時間進(jìn)行微調(diào),。
本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點(diǎn),。轉(zhuǎn)載的所有的文章、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容,、版權(quán)和其它問題,,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,,避免給雙方造成不必要的經(jīng)濟(jì)損失,。聯(lián)系電話:010-82306118;郵箱:[email protected],。