相較于只能使用在深度學(xué)習(xí)推論(inferencing)的第一代Tensor Processing Unit (TPU)芯片,Google第二代人工智能(AI)芯片Cloud TPU不僅處理速度更快,,還多了訓(xùn)練算法的能力,,因此可望對NVIDIA繪圖處理器(GPU)芯片在AI市場的主導(dǎo)地位造成更大的威脅。
富比士(Forbes)報(bào)導(dǎo)指出,,深度學(xué)習(xí)是一種利用大量資料對算法進(jìn)行訓(xùn)練的AI技術(shù),并已普遍應(yīng)用在影像與語音辨識功能上,。在TPU問世以前,,算法的訓(xùn)練多是交由NVIDIA的GPU負(fù)責(zé)處理。GPU原本是專為電動(dòng)游戲等專業(yè)圖形處理任務(wù)所設(shè)計(jì),,但其能將訓(xùn)練深度學(xué)習(xí)網(wǎng)絡(luò)所需時(shí)間,,從幾個(gè)星期縮短至幾天,因此深受AI開發(fā)人員青睞,。
不過由4塊芯片組成最新的Cloud TPU,,每秒浮點(diǎn)運(yùn)算量號稱可達(dá)180tera FLOPS,比起NVIDIA最新一代GPU Tesla V100的120tera FLOPS高出不少,。此外,,Google也正嘗試將多個(gè)TPU集成為單一的TPU Pod系統(tǒng)。TPU Pod與NVIDIA的NVLink技術(shù)概念相似,,并可望達(dá)到每秒11.5petaFLOPS的運(yùn)算能力,。
對Google而言,GPU訓(xùn)練深度學(xué)習(xí)模型所需時(shí)間還是太長,。像是Google翻譯應(yīng)用如果使用市面上最新的32片GPU芯片進(jìn)行訓(xùn)練,,仍需要一整天的時(shí)間才能完成訓(xùn)練,但如果換成TPU Pod,,只需要8分之1的運(yùn)算能力,,就可在6個(gè)小時(shí)內(nèi)完成訓(xùn)練。
Google資深科學(xué)家Jeff Dean表示,,第二代TPU提供了更強(qiáng)大的運(yùn)算能力,,而Google將能藉此打造規(guī)模更大、更準(zhǔn)確的機(jī)器學(xué)習(xí)模型,。
第二代TPU芯片除了將運(yùn)用在Google的內(nèi)部服務(wù)外,,也將透過Google Cloud開放給外部開發(fā)人員,而Cloud TPU的租用方式與費(fèi)用將與目前GPU的租用規(guī)則相似,。Google更計(jì)劃推出TensorFlow Research Cloud,,并免費(fèi)發(fā)送1,000份TPU芯片供開放AI研究使用。
盡管Google的云端業(yè)務(wù)起步較亞馬遜(Amazon)及微軟(Microsoft)晚了一些,,但第二代TPU的加入將可給予Google更多競爭優(yōu)勢,。
不過也有不少人對Google的芯片事業(yè)發(fā)展持較保留的看法,。分析師Patrick Moorhead便認(rèn)為,有監(jiān)于機(jī)器學(xué)習(xí)框架隨時(shí)都在改變,,且其深度與復(fù)雜程度都不是單靠TPU就能應(yīng)付,,Google未來仍將不能完全擺脫對GPU的依賴。
另一方面,,由于TPU是專為Google的TensorFlow框架所設(shè)計(jì),,因此外部開發(fā)人員如果要將TPU所開發(fā)的AI應(yīng)用移植至Google外的平臺,可能會(huì)面臨一定的風(fēng)險(xiǎn),,而這也表示Google將更有機(jī)會(huì)把這些應(yīng)用鎖定在自家的云端平臺,。