4 月 7 日消息,最近,,來(lái)自谷歌,、卡內(nèi)基梅隆大學(xué)和 MultiOn 的聯(lián)合研究團(tuán)隊(duì)發(fā)表了一項(xiàng)關(guān)于合成數(shù)據(jù)在大型模型訓(xùn)練中應(yīng)用的新研究。
據(jù)專(zhuān)注于人工智能發(fā)展的研究機(jī)構(gòu) Epoch AI 報(bào)告顯示,,目前全球約有 300 萬(wàn)億個(gè)公開(kāi)可用的高質(zhì)量文本訓(xùn)練標(biāo)記,。然而,隨著類(lèi)似 ChatGPT 這樣的大模型的迅猛發(fā)展,,對(duì)訓(xùn)練數(shù)據(jù)的需求呈指數(shù)級(jí)增長(zhǎng),,預(yù)計(jì)到 2026 年之前,這些數(shù)據(jù)將被耗盡,。因此,,合成數(shù)據(jù)成為了至關(guān)重要的替代方案。
據(jù)IT之家了解,,研究人員主要探索了兩種合成數(shù)據(jù)類(lèi)型:正向數(shù)據(jù)和負(fù)向數(shù)據(jù),。正向數(shù)據(jù)是指由高性能大模型(如 GPT-4 和 Gemini 1.5 Pro)生成的正確問(wèn)題解決方案,為模型提供解決數(shù)學(xué)問(wèn)題的示例,。但僅依靠正向數(shù)據(jù)進(jìn)行訓(xùn)練存在局限性,。一方面,這種方法可能無(wú)法完全揭示問(wèn)題解決過(guò)程背后的邏輯,,模型可能會(huì)通過(guò)模式匹配來(lái)學(xué)習(xí),,而缺乏真正的理解;另一方面,,隨著訓(xùn)練數(shù)據(jù)量的增加,,模型可能會(huì)學(xué)到虛假的相關(guān)性,導(dǎo)致在處理新問(wèn)題時(shí)泛化能力下降,。
鑒于此,,研究人員引入了負(fù)向數(shù)據(jù),即經(jīng)過(guò)驗(yàn)證為錯(cuò)誤的問(wèn)題解決步驟,。這有助于模型識(shí)別并避免錯(cuò)誤,,從而增強(qiáng)其邏輯推理能力。盡管使用負(fù)向數(shù)據(jù)存在挑戰(zhàn),,因?yàn)殄e(cuò)誤的步驟可能包含誤導(dǎo)性信息,,但研究人員通過(guò)直接偏好優(yōu)化(DPO)方法成功地使模型能夠從錯(cuò)誤中學(xué)習(xí),強(qiáng)調(diào)了每個(gè)問(wèn)題解決步驟的重要性,。
DPO 方法為每個(gè)問(wèn)題解決步驟分配一個(gè)優(yōu)勢(shì)值,,反映其相對(duì)于理想解決方案的價(jià)值,。研究表明,高優(yōu)勢(shì)步驟是正確解決方案的關(guān)鍵,,而低優(yōu)勢(shì)步驟可能表明模型推理中存在問(wèn)題,。利用這些優(yōu)勢(shì)值,模型可以在強(qiáng)化學(xué)習(xí)框架內(nèi)動(dòng)態(tài)調(diào)整其策略,,從而更高效地從合成數(shù)據(jù)中學(xué)習(xí)和改進(jìn),。
為了驗(yàn)證合成數(shù)據(jù)的有效性,研究團(tuán)隊(duì)使用 DeepSeek-Math-7B 和 LLaMa2-7B 等模型,,在 GSM8K 和 MATH 數(shù)據(jù)集上進(jìn)行了全面測(cè)試,。結(jié)果顯示,經(jīng)過(guò)正向和負(fù)向合成數(shù)據(jù)預(yù)訓(xùn)練的大模型在數(shù)學(xué)推理任務(wù)上的性能實(shí)現(xiàn)了八倍的提升,。這一研究充分展示了合成數(shù)據(jù)在增強(qiáng)大模型邏輯推理能力方面的巨大潛力,。