12 月 16 日消息,,無(wú)問(wèn)芯穹今日宣布,,開(kāi)源無(wú)問(wèn)芯穹端側(cè)解決方案中的全模態(tài)理解小模型 Megrez-3B-Omni 和它的純語(yǔ)言模型版本 Megrez-3B-Instruct,。
官方表示,,Megrez-3B-Omni 是一個(gè)為端而生的全模態(tài)理解模型,,同時(shí)具備圖片,、音頻,、文本三種模態(tài)數(shù)據(jù)的處理能力:
在圖像理解方面,,Megrez-3B-Omni 是目前 OpenCompass、MME,、MMMU,、OCRBench 等多個(gè)主流測(cè)試集上精度最高的圖像理解模型之一。
在文本理解方面,,Megrez-3B-Omni 在 C-EVAL,、MMLU / MMLU Pro、AlignBench 等多個(gè)權(quán)威測(cè)試集上取得端上模型最優(yōu)精度,。
在語(yǔ)音理解方面,,Megrez-3B-Omni 支持中文和英文的語(yǔ)音輸入,還能夠處理復(fù)雜的多輪對(duì)話(huà)場(chǎng)景,,也能支持對(duì)輸入圖片或文字的語(yǔ)音提問(wèn),,實(shí)現(xiàn)不同模態(tài)間的自由切換。
官方宣稱(chēng),,與上一代及其他端側(cè)大語(yǔ)言模型相比,,單模態(tài)版本的 Megrez-3B-Instruct 在推理速度上取得了顯著提升,最大推理速度可以領(lǐng)先同精度模型 300%,。
本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀(guān)點(diǎn),。轉(zhuǎn)載的所有的文章,、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者,。如涉及作品內(nèi)容,、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話(huà)通知我們,,以便迅速采取適當(dāng)措施,,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話(huà):010-82306118,;郵箱:[email protected],。