7月10日消息,,根據(jù)SuperCLUE發(fā)布的中文大模型基準(zhǔn)測(cè)評(píng)最新報(bào)告,,阿里通義千問開源模型Qwen2-72B-Instruct以卓越的表現(xiàn)位居國(guó)內(nèi)通用能力第一,更在全球范圍內(nèi)成為最強(qiáng)開源模型,。
SuperCLUE報(bào)告詳細(xì)披露了對(duì)國(guó)內(nèi)外33個(gè)大模型的綜合測(cè)評(píng)結(jié)果,,Qwen2-72B在一級(jí)總分上以77分的高分與Claude-3.5-Sonnet并列第二,僅次于OpenAI的GPT-4o,。
這一得分超越了百度文心一言4.0,、訊飛星火V4.0、Llama-3-70B等開閉源大模型。
具體來看,,在理科,、文科和Hard三個(gè)維度的具體測(cè)評(píng)中,Qwen2-72B展現(xiàn)了全面而均衡的能力,。
特別是在理科任務(wù)上,,Qwen2-72B與GPT-4o的分差僅為5分,顯示出其在計(jì)算,、邏輯推理和代碼測(cè)評(píng)方面的強(qiáng)勁實(shí)力,。
在文科任務(wù)和Hard任務(wù)上,Qwen2-72B同樣表現(xiàn)不俗,,得分均達(dá)到了76分,,與GPT-4o的得分相差無幾。
特別值得一提的是,,在端側(cè)小模型測(cè)評(píng)中,,Qwen2-7B以70億參數(shù)的模型規(guī)模,超越了上一代320億參數(shù)的Qwen1.5-32B和130億參數(shù)的Llama-3-8B-Instruct,,奪得了排名第一的寶座。
這一成績(jī)不僅證明了Qwen2-7B在小尺寸模型中的極致性能,,也極大提升了端側(cè)小模型落地的可行性,。
數(shù)據(jù)顯示,截至目前Qwen系列模型的下載量已突破2000萬次,,其應(yīng)用場(chǎng)景覆蓋了工業(yè),、金融、醫(yī)療,、汽車等多個(gè)垂直領(lǐng)域,。