《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 阿里通義千問發(fā)布最強視覺理解模型Qwen2-VL-72B

阿里通義千問發(fā)布最強視覺理解模型Qwen2-VL-72B

可理解20分鐘以上長視頻
2024-09-02
來源:快科技

8月30日消息,阿里通義千問發(fā)布第二代視覺語言模型Qwen2-VL,。其中,,旗艦?zāi)P?a class="innerlink" href="http://forexkbc.com/tags/Qwen2-VL-72B" target="_blank">Qwen2-VL-72B的API已上線阿里云百煉平臺。

據(jù)了解,,Qwen2-VL在多個權(quán)威測評中刷新了多模態(tài)模型的最佳成績,,在部分指標上甚至超越了GPT-4o和Claude3.5-Sonnet等閉源模型。

2023年8月,,通義千問開源第一代視覺語言理解模型Qwen-VL,,成為開源社區(qū)最受歡迎的多模態(tài)模型之一。

短短一年內(nèi),,模型下載量突破1000萬次,。目前,多模態(tài)模型在手機,、車端等各類視覺識別場景的落地正在加速,,開發(fā)者和應(yīng)用企業(yè)也格外關(guān)注Qwen-VL的升級迭代。

相比上代模型,,Qwen2-VL的基礎(chǔ)性能全面提升,。可以讀懂不同分辨率和不同長寬比的圖片,,在MathVista,、DocVQA,、RealWorldQA、MTVQA等基準測試創(chuàng)下全球領(lǐng)先的表現(xiàn),。

此外,,Qwen2-VL可以理解20分鐘以上長視頻,,支持基于視頻的問答,、對話和內(nèi)容創(chuàng)作等應(yīng)用。同時,,具備強大的視覺智能體能力,,可自主操作手機和機器人,借助復(fù)雜推理和決策的能力,,Qwen2-VL可以集成到手機,、機器人等設(shè)備,根據(jù)視覺環(huán)境和文字指令進行自動操作,。

該模型還能理解圖像視頻中的多語言文本,,包括中文、英文,,大多數(shù)歐洲語言,,日語、韓語,、阿拉伯語,、越南語等。

通義千問團隊從六個方面評估了模型能力,,包括綜合的大學題目,、數(shù)學能力、文檔表格多語言文字圖像的理解,、通用場景問答,、視頻理解、Agent 能力,。

Qwen2-VL-72B 在大部分的指標上都達到了最優(yōu),,甚至超過了 GPT-4o 和 Claude3.5-Sonnet 等閉源模型,在文檔理解方面優(yōu)勢尤其明顯,,僅在綜合的大學題目方面與GPT-4o 存在差距,。


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點,。轉(zhuǎn)載的所有的文章、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者,。如涉及作品內(nèi)容、版權(quán)和其它問題,,請及時通過電子郵件或電話通知我們,,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失,。聯(lián)系電話:010-82306118,;郵箱:[email protected]