6月20日消息,,斯坦福大學(xué)的大模型測(cè)評(píng)榜單HELM MMLU發(fā)布最新結(jié)果,,斯坦福大學(xué)基礎(chǔ)模型研究中心主任Percy Liang發(fā)文表示,阿里通義千問(wèn)Qwen2-72B模型成為排名最高的開(kāi)源大模型,,性能超越Llama3-70B模型,。
MMLU(Massive Multitask Language Understanding,,大規(guī)模多任務(wù)語(yǔ)言理解)是業(yè)界最有影響力的大模型測(cè)評(píng)基準(zhǔn)之一,,涵蓋了基礎(chǔ)數(shù)學(xué),、計(jì)算機(jī)科學(xué)、法律,、歷史等57項(xiàng)任務(wù),,用以測(cè)試大模型的世界知識(shí)和問(wèn)題解決能力。但在現(xiàn)實(shí)測(cè)評(píng)中,,不同參評(píng)模型的測(cè)評(píng)結(jié)果有時(shí)缺乏一致性、可比性,,原因包括使用非標(biāo)準(zhǔn)提示詞技術(shù),、沒(méi)有統(tǒng)一采用開(kāi)源評(píng)價(jià)框架等等。
斯坦福大學(xué)基礎(chǔ)模型研究中心(CRFM,,Center for Research on Foundation Models)提出的基礎(chǔ)模型評(píng)估框架HELM(A holistic framework for evaluating foundation models),,旨在創(chuàng)造一種透明,、可復(fù)現(xiàn)的評(píng)估方法。該方法基于HELM框架,,對(duì)不同模型在MMLU上的評(píng)估結(jié)果進(jìn)行標(biāo)準(zhǔn)化和透明化處理,,從而克服現(xiàn)有MMLU評(píng)估中存在的問(wèn)題。比如,,針對(duì)所有參評(píng)模型,,都采用相同的提示詞;針對(duì)每項(xiàng)測(cè)試主題,,都給模型提供同樣的5個(gè)示例進(jìn)行情境學(xué)習(xí),,等等。
日前,,斯坦福大學(xué)基礎(chǔ)模型研究中心主任Percy Liang在社交平臺(tái)發(fā)布了HELM MMLU最新榜單,,阿里巴巴的通義千問(wèn)開(kāi)源模型Qwen2-72B排名第5,僅次于Claude 3 Opus,、GPT-4o,、Gemini 1.5 pro、GPT-4,,是排名第一的開(kāi)源大模型,,也是排名最高的中國(guó)大模型。
據(jù)悉,,通義千問(wèn)Qwen2于6月初開(kāi)源,,包含5個(gè)尺寸的預(yù)訓(xùn)練和指令微調(diào)模型,目前Qwen系列模型下載量已經(jīng)突破1600萬(wàn),。