由于NVIDIA步入人工智能的領(lǐng)域早,,公司已經(jīng)從中有所收益,。從最近的財報可以看出,數(shù)據(jù)中心收入中的人工智能部分,,比去年同期上漲了186%,。NVIDIA最新季度收入近20億美元,人工智能就占據(jù)了超21%的比例,,兩年前僅占到6%,。公司的股價也在過去的五年里增加了近1000%。
這些增長的背后都得益于NVIDIA的圖形處理器(GPU),,GPU可以說是AI系統(tǒng)的首選,。Alphabet旗下公司谷歌,由于谷歌大腦的存在,,使其處于AI領(lǐng)域的前列,,后來收購了Deep Mind專注于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)系統(tǒng),并且它也是NVIDIA GPU的用戶,。不過從谷歌近期發(fā)展來看,,NVIDIA在人工智能領(lǐng)域的壟斷地位可能會被打破,谷歌就是這個“破壁人”,。
與NVIDIA的戰(zhàn)役
谷歌在上周的2017年I/O開發(fā)者大會上,,推出了最新版的張量處理器單元(TPU),該處理器單元是為其AI系統(tǒng)內(nèi)部開發(fā)的芯片,。不過最新版本的TPU已經(jīng)得到了大提升,,能進行訓(xùn)練和推理處理,以往的版本只能進行推理處理,。這是啥意思,?這又與NVIDIA的GPU有啥關(guān)系?
背景
除非是負責(zé)這塊的工程師,,不然你是不會知道AI運行要經(jīng)過兩個必要的階段,。第一個是AI系統(tǒng)的培訓(xùn),,其中包括算法的構(gòu)建和軟件模型的搭建,這些被稱為神經(jīng)網(wǎng)絡(luò),,接著對其進行培訓(xùn),,用來執(zhí)行特定任務(wù),比如圖像處理或者語言處理,。
一旦這些系統(tǒng)接受了培訓(xùn),,它們就會完成所設(shè)計的任務(wù),來篩選大量的數(shù)據(jù),,并使用它們的獨特的識別模式的能力,,來快速精準(zhǔn)地處理數(shù)據(jù)任務(wù)。這些任務(wù)的執(zhí)行被成為推理,,這是一件關(guān)于系統(tǒng)根據(jù)其訓(xùn)練來處理數(shù)據(jù)的事情,。
目前來看,GPU是培訓(xùn)AI系統(tǒng)的最佳選擇,。因為這些芯片具有并行處理大量數(shù)學(xué)運算的能力,,這也使得它們非常適合渲染圖形。并且成為了培訓(xùn)AI的理想選擇,,能進行大量的快速的數(shù)據(jù)處理器,,讓GPU打敗天下無敵手。
更多
谷歌最近宣布開發(fā)了一種系統(tǒng),,將64顆TPU連接至同一臺機器學(xué)習(xí)超級計算機,。這臺超級計算機被稱作“TPU艙”,將帶來無與倫比的運算能力,。谷歌AI和機器學(xué)習(xí)首席科學(xué)家,,斯坦福大學(xué)AI實驗室主任李飛飛表示,新的超級計算機將“提供每秒180萬億次浮點運算的計算能力,,適合當(dāng)代機器學(xué)習(xí)所需的數(shù)據(jù)處理,。”
Google Brain團隊的高級研究員Jeff Dean在博客中寫道:“在使用這些TPU艙期間,,我們已經(jīng)發(fā)現(xiàn)他們在實驗時已經(jīng)有了很大的改進,。曾經(jīng)我們的一個新的大型翻譯模型,需要花費一整天來培訓(xùn)32個GPU——現(xiàn)在只需一個下午,,且只用八分之一的TPU就完成了相同的精度,。”
當(dāng)谷歌在2016年5月的I/O開發(fā)者大會上推出首款TPU時,,首席執(zhí)行官Sundar Pichai就表示:“TPU比商業(yè)FPGA和GPU每瓦性能高出一個數(shù)量級,。”新芯片更節(jié)能,,專門設(shè)計用于Google的TensorFlow,,用于培訓(xùn)AI系統(tǒng),。這種優(yōu)化的硬件和軟件組合已在谷歌內(nèi)部使用一年多。雖說GPU仍是培訓(xùn)時所用的首選芯片,,但谷歌TPU在推理系統(tǒng)上存在一定優(yōu)勢,,而且谷歌正在開展TPU在培訓(xùn)上的研發(fā)。
未來
NVIDIA并沒有在這場戰(zhàn)役上脫穎而出,。最近也引進了TPU,,以及GPU構(gòu)架其他方面的升級。一段時間來看,,它還是成為行業(yè)內(nèi)的標(biāo)準(zhǔn),,也不可能一夜之間就能改變,。不過投資者應(yīng)該意識到,,AI還處于起步階段,技術(shù)日新月異,。NVIDIA目前仍是人工智能系統(tǒng)最大玩家,,但谷歌已經(jīng)拋出這個“神器”,讓其注意到該領(lǐng)域并不是只有他一個人在玩,。