《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > Graphcore IPU-M2000在首個benchmark測試中顯著優(yōu)于GPU

Graphcore IPU-M2000在首個benchmark測試中顯著優(yōu)于GPU

Graphcore業(yè)界領(lǐng)先的科技現(xiàn)已開始面向全球出貨
2020-12-10
來源:Graphcore
關(guān)鍵詞: Graphcore benchmark GPU NVIDIA

2020年12月9日,,布里斯托——Graphcore為其最新的AI計(jì)算系統(tǒng)——IPU-M2000和縱向擴(kuò)展的IPU-POD64發(fā)布了第一套性能benchmark,。

在各種流行的模型中,,Graphcore技術(shù)在訓(xùn)練和推理方面均顯著優(yōu)于NVIDIA的A100(基于DGX),。

亮點(diǎn)包括:

訓(xùn)練

· EfficientNet-B4:吞吐量高18倍

· ResNeXt-101:吞吐量高3.7倍

· BERT-Large:與DGX A100相比,,在IPU-POD64上的訓(xùn)練時間快5.3倍(比雙DGX系統(tǒng)縮短2.6倍)

推理

· LSTM:以更低時延實(shí)現(xiàn)吞吐量提升超過600倍

· EfficientNet-B0:吞吐量提升60倍/時延縮短超過16倍

· ResNeXt-101:吞吐量提升40倍/時延縮短10倍

· BERT-Large:以更低的時延實(shí)現(xiàn)吞吐量提升3.4倍

Benchmark中包括了BERT-Large(基于Transformer的自然語言處理模型)在IPU-POD64的全部64個處理器上運(yùn)行的結(jié)果,。

BERT-Large的訓(xùn)練時間比最新的NVIDIA DGX-A100快5.3倍(比雙DGX設(shè)置快2.6倍以上),,這一結(jié)果彰顯了Graphcore的IPU-POD橫向擴(kuò)展解決方案在數(shù)據(jù)中心的優(yōu)勢,,以及Poplar軟件棧管理復(fù)雜工作負(fù)載的能力,,這些工作負(fù)載能夠利用多個處理器并行工作,。

Graphcore軟件高級副總裁Matt Fyles在對測試結(jié)果發(fā)表評論時說:“這一整套全面的benchmark表明Graphcore的IPU-M2000和IPU-POD64在許多流行模型上的性能均優(yōu)于GPU?!?/p>

“諸如EfficientNet之類的新型模型的benchmark特別具有啟發(fā)性,,因?yàn)樗鼈冏C明了AI的發(fā)展方向越來越傾向于IPU的專業(yè)架構(gòu),而非圖形處理器的傳統(tǒng)設(shè)計(jì),?!?/p>

“客戶需要能夠處理稀疏性以高效運(yùn)行大規(guī)模模型的計(jì)算系統(tǒng),,而這正是Graphcore IPU所擅長的。在這種客戶需求的趨勢下,,差距只會不斷擴(kuò)大,。”

Graphcore為阿里云HALO定制代碼正式在GitHub開源

Graphcore是阿里云HALO的合作伙伴之一,,為阿里云HALO定制開發(fā)的代碼odla_PopArt已經(jīng)在HALO的GitHub上開源

MLCommons

除了發(fā)布其AI計(jì)算系統(tǒng)的全面benchmark外,,Graphcore還宣布,其已經(jīng)加入新成立的MLPerf下屬機(jī)構(gòu)MLCommons,,成為MLCommons的會員,。

Graphcore將從2021年開始參加MLCommons的比較benchmark測試。更多信息,,請參閱MLCommons的成立公告,。

現(xiàn)已出貨

Graphcore最新benchmark的發(fā)布與IPU-M2000和IPU-POD64系統(tǒng)向全球客戶的推出時間剛好一致。一些早期發(fā)貨的產(chǎn)品已經(jīng)在數(shù)據(jù)中心安裝并運(yùn)行,。

銷售工作得到了Graphcore全球合作伙伴網(wǎng)絡(luò)以及公司在歐洲、亞洲和美洲的銷售人員和現(xiàn)場工程團(tuán)隊(duì)的支持,。

PyTorch和Poplar 1.4

Graphcore用戶現(xiàn)在可以利用Poplar SDK 1.4,,包括全面的PyTorch支持。PyTorch已成為從事尖端AI研究的開發(fā)人員的首選框架,,在更廣泛的AI社區(qū)中也收獲了大批的追隨者,,并且追隨者的數(shù)量還在快速增長。

PapersWithCode的最新數(shù)據(jù)顯示,,在具有關(guān)聯(lián)代碼的已發(fā)表論文中,,47%的論文使用了PyTorch框架(2020年9月)。

額外補(bǔ)充的PyTorch支持,,再加上Poplar對TensorFlow的現(xiàn)有支持,,這意味著絕大多數(shù)AI應(yīng)用程序現(xiàn)在都可以輕松部署在Graphcore系統(tǒng)上。

與Poplar軟件棧的其他元素一樣,,Graphcore正在將其用于IPU接口庫的PyTorch開源,,從而使社區(qū)能夠?qū)yTorch的開發(fā)做出貢獻(xiàn),并且加速PyTorch的開發(fā),。

關(guān)于IPU-M2000和IPU-POD

IPU-Machine:M2000(IPU-M2000)是一臺即插即用的機(jī)器智能計(jì)算刀片,,旨在輕松部署并為可大規(guī)模擴(kuò)展的系統(tǒng)提供支持。

纖巧的1U刀片可提供1 PetaFlop的機(jī)器智能計(jì)算能力,,并在機(jī)箱內(nèi)部納入針對AI橫向擴(kuò)展進(jìn)行了優(yōu)化的集成網(wǎng)絡(luò)技術(shù),。

每個IPU-Machine:M2000(IPU-M2000)均由Graphcore的4個新型7納米Colossus? MK2 GC200 IPU處理器提供動力,并得到Poplar?軟件棧的完全支持,。

IPU-POD64是Graphcore的橫向擴(kuò)展解決方案,,包括16臺IPU-M2000,,這些機(jī)器使用Graphcore的超高帶寬IPU-Fabric?技術(shù)進(jìn)行了預(yù)先配置和連接。

IPU-POD64專為需要大規(guī)模AI計(jì)算功能的客戶而設(shè)計(jì),,既可以跨多個IPU運(yùn)行單個工作負(fù)載以進(jìn)行并行計(jì)算,,也可以通過Graphcore的Virtual-IPU軟件供多個用戶共享使用。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章,、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者,。如涉及作品內(nèi)容,、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,,以便迅速采取適當(dāng)措施,,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118,;郵箱:[email protected],。