9 月 13 日消息,,昆侖萬維發(fā)布了兩款全新的獎勵模型 Skywork-Reward-Gemma-2-27B 和 Skywork-Reward-Llama-3.1-8B,。在獎勵模型評估基準(zhǔn) RewardBench 上,這兩款模型分別位列排行榜上的第一和第三位,。
獎勵模型(Reward Model)是強(qiáng)化學(xué)習(xí)(Reinforcement Learning)中的核心概念和關(guān)鍵組成,,它用于評估智能體在不同狀態(tài)下的表現(xiàn),,并為智能體提供獎勵信號以指導(dǎo)其學(xué)習(xí)過程,讓智能體能夠?qū)W習(xí)到在特定環(huán)境下如何做出最優(yōu)選擇,。
獎勵模型在大語言模型(Large Language Model,,LLM)的訓(xùn)練中尤為重要,可以幫助模型更好地理解和生成符合人類偏好的內(nèi)容,。
與現(xiàn)有獎勵模型不同,,Skywork-Reward 的偏序數(shù)據(jù)僅來自網(wǎng)絡(luò)公開數(shù)據(jù),采用特定的篩選策略,,以獲得針對特定能力和知識領(lǐng)域的高質(zhì)量的偏好數(shù)據(jù)集,。
Skywork-Reward 偏序訓(xùn)練數(shù)據(jù)集包含約 80,000 個樣本,通過在這些樣本上微調(diào) Gemma-2-27B-it 和 Llama-3.1-8B-Instruct 基座模型,,獲得最終的 Skywork-Reward 獎勵模型,。
本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點,。轉(zhuǎn)載的所有的文章,、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者,。如涉及作品內(nèi)容、版權(quán)和其它問題,,請及時通過電子郵件或電話通知我們,,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失,。聯(lián)系電話:010-82306118,;郵箱:[email protected]。