通義千問(Qwen)今天宣布經(jīng)過數(shù)月的努力,,Qwen 系列模型從 Qwen1.5 到 Qwen2 的重大升級,,并已在 Hugging Face 和 ModelScope 上同步開源。
附上 Qwen 2.0 主要內(nèi)容如下:
5 個尺寸的預訓練和指令微調(diào)模型,,包括 Qwen2-0.5B,、Qwen2-1.5B,、Qwen2-7B、Qwen2-57B-A14B 以及 Qwen2-72B
在中文英語的基礎上,,訓練數(shù)據(jù)中增加了 27 種語言相關的高質(zhì)量數(shù)據(jù),;
多個評測基準上的領先表現(xiàn);
代碼和數(shù)學能力顯著提升,;
增大了上下文長度支持,,最高達到 128K tokens(Qwen2-72B-Instruct)。
模型基礎信息
Qwen2 系列包含 5 個尺寸的預訓練和指令微調(diào)模型,,其中包括 Qwen2-0.5B,、Qwen2-1.5B、Qwen2-7B,、Qwen2-57B-A14B 和 Qwen2-72B,。
在 Qwen1.5 系列中,只有 32B 和 110B 的模型使用了 GQA,。這一次,,所有尺寸的模型都使用了 GQA,以便讓大家體驗到 GQA 帶來的推理加速和顯存占用降低的優(yōu)勢,。
模型評測
相比 Qwen1.5,,Qwen2 在大規(guī)模模型實現(xiàn)了非常大幅度的效果提升。我們對 Qwen2-72B 進行了全方位的評測,。
在針對預訓練語言模型的評估中,,對比當前最優(yōu)的開源模型,Qwen2-72B 在包括自然語言理解,、知識,、代碼、數(shù)學及多語言等多項能力上均顯著超越當前領先的模型,,如 Llama-3-70B 以及 Qwen1.5 最大的模型 Qwen1.5-110B,。