《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動(dòng)態(tài) > 阿里云通義千問系列AI開源模型升至Qwen2

阿里云通義千問系列AI開源模型升至Qwen2

5個(gè)尺寸、上下文長度最高支持128K tokens
2024-06-07
來源:C114通信網(wǎng)

通義千問(Qwen)今天宣布經(jīng)過數(shù)月的努力,,Qwen 系列模型從 Qwen1.5 到 Qwen2 的重大升級(jí),,并已在 Hugging Face 和 ModelScope 上同步開源。

1.jpg

附上 Qwen 2.0 主要內(nèi)容如下:

5 個(gè)尺寸的預(yù)訓(xùn)練和指令微調(diào)模型,,包括 Qwen2-0.5B,、Qwen2-1.5B、Qwen2-7B,、Qwen2-57B-A14B 以及 Qwen2-72B

在中文英語的基礎(chǔ)上,,訓(xùn)練數(shù)據(jù)中增加了 27 種語言相關(guān)的高質(zhì)量數(shù)據(jù);

多個(gè)評(píng)測基準(zhǔn)上的領(lǐng)先表現(xiàn),;

代碼和數(shù)學(xué)能力顯著提升,;

增大了上下文長度支持,最高達(dá)到 128K tokens(Qwen2-72B-Instruct),。

模型基礎(chǔ)信息

Qwen2 系列包含 5 個(gè)尺寸的預(yù)訓(xùn)練和指令微調(diào)模型,,其中包括 Qwen2-0.5B、Qwen2-1.5B,、Qwen2-7B,、Qwen2-57B-A14B 和 Qwen2-72B。

在 Qwen1.5 系列中,,只有 32B 和 110B 的模型使用了 GQA,。這一次,所有尺寸的模型都使用了 GQA,,以便讓大家體驗(yàn)到 GQA 帶來的推理加速和顯存占用降低的優(yōu)勢,。

模型評(píng)測

相比 Qwen1.5,Qwen2 在大規(guī)模模型實(shí)現(xiàn)了非常大幅度的效果提升,。我們對(duì) Qwen2-72B 進(jìn)行了全方位的評(píng)測,。

在針對(duì)預(yù)訓(xùn)練語言模型的評(píng)估中,對(duì)比當(dāng)前最優(yōu)的開源模型,,Qwen2-72B 在包括自然語言理解,、知識(shí)、代碼、數(shù)學(xué)及多語言等多項(xiàng)能力上均顯著超越當(dāng)前領(lǐng)先的模型,,如 Llama-3-70B 以及 Qwen1.5 最大的模型 Qwen1.5-110B,。

2.jpg

3.jpg

4.jpg

5.jpg


Magazine.Subscription.jpg


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點(diǎn),。轉(zhuǎn)載的所有的文章、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容,、版權(quán)和其它問題,,請(qǐng)及時(shí)通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,,避免給雙方造成不必要的經(jīng)濟(jì)損失,。聯(lián)系電話:010-82306118;郵箱:[email protected],。