《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動(dòng)態(tài) > 英偉達(dá)Blackwell GPU的AI模型訓(xùn)練性能超過上一代兩倍

英偉達(dá)Blackwell GPU的AI模型訓(xùn)練性能超過上一代兩倍

2025-06-06
來源:芯智訊
關(guān)鍵詞: 英偉達(dá) AI芯片 GPU

000.jpg

6月5日消息,據(jù)路透社報(bào)道,根據(jù)非營(yíng)利機(jī)構(gòu)MLCommons最新出具的AI系統(tǒng)性能報(bào)告顯示,英偉達(dá)(NVIDIA)最新一代Blackwell GPU芯片的AI模型訓(xùn)練速度超過了上一代Hopper GPU的兩倍以上。

根據(jù)報(bào)告顯示,在利用英偉達(dá)、AMD等廠商的AI芯片針對(duì)Meta旗下4,050億參數(shù)“Llama 3.1”等人工智能模型的訓(xùn)練中,2,496顆Blackwell芯片只花27分鐘就完成AI模型的訓(xùn)練任務(wù)。相較之下,Hopper芯片需要三倍以上的數(shù)量,完成訓(xùn)練的時(shí)間才能略快一些。

與英偉達(dá)合作產(chǎn)出上述部分性能測(cè)試結(jié)果的CoreWeave產(chǎn)品負(fù)責(zé)人Chetan Kapoor表示,AI產(chǎn)業(yè)如今逐漸傾向把一小群芯片串接成次系統(tǒng),用來進(jìn)行不同的AI訓(xùn)練任務(wù),而不是像過去那樣打造動(dòng)輒100,000顆同質(zhì)芯片(甚至更多)的巨大訓(xùn)練叢集。

Kapoor說,那些參數(shù)規(guī)模達(dá)到上萬億參數(shù)的巨大AI模型,只要通過這種方式,就能加快或減少訓(xùn)練時(shí)間。

值得注意的是,據(jù)Barron’s報(bào)導(dǎo),英偉達(dá)加速運(yùn)算部門負(fù)責(zé)人Ian Buck 4日在美銀全球科技大會(huì)(BofA Securities Global Technology Conference)上表示,AI推論(Inference)出現(xiàn)爆炸性需求,主要是受到自動(dòng)推理(reasoning)的模型日漸獲得應(yīng)用帶動(dòng)。他說,推理功能“增添了非常多價(jià)值”。


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請(qǐng)及時(shí)通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:[email protected]