《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 安謀科技新一代“周易”NPU實現(xiàn)DeepSeek-R1端側(cè)高效部署

安謀科技新一代“周易”NPU實現(xiàn)DeepSeek-R1端側(cè)高效部署

軟硬協(xié)同優(yōu)化,,
2025-02-14
來源:安謀科技
關(guān)鍵詞: Deepseek 安謀科技

近日,,搭載安謀科技最新一代“周易”NPU處理器的硬件平臺成功運行DeepSeek-R1系列模型,性能卓越,、成本優(yōu)異,,為用戶帶來了更高效,、便捷的AI應(yīng)用體驗。這款創(chuàng)新性NPU處理器采用專為大模型特性優(yōu)化的架構(gòu)設(shè)計,,其beta版本在2024年底已面向早期用戶開放評估測試,,并獲得了廣泛認可與積極反饋,。預(yù)計今年上半年,,這款備受期待的NPU產(chǎn)品將正式亮相市場,屆時將為更多用戶帶來突破性的端側(cè)算力體驗,。

001 (2).jpg


DeepSeek自發(fā)布以來,,憑借其出色的性能表現(xiàn)和低成本訓(xùn)練模式,迅速成為AI領(lǐng)域的焦點,。在DeepSeek-R1的1.5B和7B蒸餾版本推出后,,安謀科技新一代“周易”NPU處理器短時間內(nèi)在Emulation平臺上完成了部署與優(yōu)化,并在FPGA平臺上成功實現(xiàn)了端到端應(yīng)用的演示,。

經(jīng)過嚴苛的測試驗證,,新一代“周易”NPU處理器在運行DeepSeek-R1的1.5B和7B蒸餾版本時表現(xiàn)優(yōu)異。在標準單批次輸入,、上下文長度為1024的測試環(huán)境中,,其在首字計算階段的算力利用率突破40%,解碼階段的有效帶寬利用率高達80%以上。其帶寬利用率呈現(xiàn)高線性特性,,能夠靈活適配16GB/s至256GB/s的系統(tǒng)帶寬需求,。在7B版本、1024上下文長度的場景下,,該處理器在充分保障模型應(yīng)用精度的同時,,最高處理速度可達40 tokens/s,并支持動態(tài)長度的模型推理輸入,。面對復(fù)雜AI任務(wù)時,,“周易”NPU處理器憑借其卓越的計算性能、高帶寬利用率和能效比,,展現(xiàn)出顯著的技術(shù)優(yōu)勢,,為終端設(shè)備的智能化升級提供了強勁“芯”動力。

image2small-ezgif.com-resize (1).gif

新一代“周易”NPU處理器運行DeepSeek-R1模型效果演示

新一代“周易”NPU處理器對DeepSeek等最新大模型的高效適配和調(diào)優(yōu),,得益于其軟件棧對大模型的成熟支持,。軟件棧提供高效的量化編譯工具,能夠在顯著壓縮模型體積的同時,,保持高性能推理能力,,并通過靈活的編譯選項滿足多樣化需求。此外,,軟件棧針對大模型進行了深度優(yōu)化,,包括動態(tài)推理優(yōu)化和硬件算力潛力的挖掘,從而顯著提升推理速度和吞吐量,。目前,,軟件棧已支持Llama、Qwen,、DeepSeek,、ChatGLM和MiniCPM等多種主流大模型,并提供了與Hugging Face模型庫的對接工具鏈,,方便用戶直接部署主流模型,。

在硬件層面,新一代“周易”NPU處理器突破了傳統(tǒng)設(shè)計限制,,將對外帶寬提高至256GB/s,,有效解決了大模型計算的帶寬瓶頸問題。為滿足端側(cè)大模型對高精度的需求,,該NPU處理器全面支持FP16計算,,并提供完整的int4軟硬量化加速方案,確保模型高效穩(wěn)定運行,。針對端側(cè)模型的低首字延遲需求,,“周易”NPU處理器通過軟硬協(xié)同優(yōu)化,,實現(xiàn)了多核算力的高效擴展。在7nm制程工藝下,,單Cluster算力最高可達80 TOPS,,能夠輕松應(yīng)對超過16K上下文長度的大模型部署需求,同時滿足多模態(tài)場景及思維鏈計算的高算力要求,。此外,,該NPU處理器還具備強大的多任務(wù)并行處理能力,通過細粒度的任務(wù)調(diào)度和優(yōu)先級資源分配,,實現(xiàn)多任務(wù)靈活切換,,確保傳統(tǒng)語音、視覺業(yè)務(wù)與大模型應(yīng)用高效協(xié)同,,為用戶帶來更加流暢的使用體驗,。

目前,安謀科技正在積極拓展DeepSeek系列模型在端側(cè)加速卡的應(yīng)用場景,,通過提升模型推理性能,,加速端側(cè)AI應(yīng)用的商業(yè)化落地進程。依托雄厚的技術(shù)積累,、生態(tài)系統(tǒng)優(yōu)勢以及前瞻性布局,,安謀科技將持續(xù)推動AI大模型技術(shù)在PC、手機,、智能汽車,、機器人、可穿戴設(shè)備等多終端領(lǐng)域的深度應(yīng)用與創(chuàng)新,,全面加速端側(cè)AI生態(tài)的構(gòu)建與完善,。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點,。轉(zhuǎn)載的所有的文章、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容,、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,,以便迅速采取適當措施,,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118,;郵箱:[email protected],。