Google 今天分享了有關(guān)其TPU芯片的新版本的早期細(xì)節(jié),據(jù)介紹,,該芯片用于運(yùn)行人工智能工作負(fù)載,,其性能是前一代的兩倍以上。
Google的TPU(即Tensor處理器單元)是專門針對AI設(shè)計(jì)的專用集成電路,。搜索巨頭今天詳細(xì)介紹的新的TPU模型是該芯片的第四次迭代,。通過Google Cloud Platform,企業(yè)可以使用第三次和第二次迭代,,這兩者也展示了出色的性能,。
谷歌表示,其第四代TPU的平均性能比其第三代TPU高出2.7倍,。這家搜索巨頭通過在最近的MLPerf行業(yè)競賽中衡量他們訓(xùn)練五個(gè)流行的AI模型的速度來比較這些芯片,。第四代TPU在運(yùn)行Mask R-CNN模型時(shí)獲得了最強(qiáng)的效果,Mask R-CNN模型是用于自動(dòng)駕駛等用例的圖像分割A(yù)I,,其訓(xùn)練速度比Google的早期芯片快3.7倍,。
Google指出,他們在本次MLPerf訓(xùn)練回合中使用的超級計(jì)算機(jī)是Cloud TPU v3 Pod的四倍,后者在之前的比賽中創(chuàng)造了三項(xiàng)記錄,。該系統(tǒng)包括4096個(gè)TPU v3芯片和數(shù)百個(gè)CPU主機(jī),,所有這些都通過超快速,超大規(guī)模的定制互連進(jìn)行連接,。該系統(tǒng)總共可提供430多個(gè)PFLOP峰值性能,。
性能的提高是設(shè)計(jì)重大變化的結(jié)果。谷歌工程師Naveen Kumar在博客中詳細(xì)介紹了該公司已大大提高了TPU的內(nèi)存帶寬,,即芯片從內(nèi)存中獲取數(shù)據(jù)進(jìn)行處理的速度,,并提高了其執(zhí)行專門計(jì)算的能力。
“Google的第四代TPU ASIC提供了TPU v3的矩陣乘法TFLOP的兩倍以上性能,,” Kumar在帖子中詳細(xì)介紹,。矩陣乘法是AI模型用來處理數(shù)據(jù)的一種數(shù)學(xué)運(yùn)算,而TFLOP是每秒一萬億個(gè)浮點(diǎn)運(yùn)算,。相比之下,,與新芯片進(jìn)行比較的第三代TPU v3 每秒可管理420萬億次操作。
Kumar寫道,,客戶可以很快獲得有關(guān)新TPU的更多信息,。鑒于該平臺上已有兩個(gè)上一代TPU可供租用,該芯片很有可能最終登陸Google Cloud,。但是,,客戶可能需要等待一會兒:ExtremeTech 報(bào)告說,第四代TPU在MLPerf競賽期間被列為研究類別,,這意味著它將在至少六個(gè)月內(nèi)無法商用,。
新芯片的速度提升尤其引人注目,因?yàn)槠湫阅軆?yōu)于第三代的芯片在同一比賽中打破了多項(xiàng)記錄,。谷歌使用了4,090個(gè)第三代TPU來構(gòu)建其所謂的世界上最快的AI培訓(xùn)超級計(jì)算機(jī),。該系統(tǒng)為MLPerf八個(gè)基準(zhǔn)中的六個(gè)基準(zhǔn)創(chuàng)造了新記錄,并在30秒內(nèi)訓(xùn)練了四個(gè)測試模型,。