2017臺北國際電腦展COMPUTEX 2017已經(jīng)于5月30日開幕。英偉達(dá)的創(chuàng)始人兼CEO黃仁勛在AI論壇上發(fā)表了演說,,談到了英偉達(dá)的人工智能規(guī)劃,。
今年5月9日,英偉達(dá)公布了第一季度的財報,,第一季度營收19.4億美元,,同比跳漲48.4%,凈收入5.07億美元,,比去年同期跳漲126%,。其中,游戲顯卡業(yè)務(wù)營收占了總營收的53%,仍然是英偉達(dá)的主力軍,。但是數(shù)據(jù)中心業(yè)務(wù)收入翻倍至4.09億美元,,汽車業(yè)務(wù)收入也增長了24%至1.4億美元。從去年起,,數(shù)據(jù)中心和汽車業(yè)務(wù)加速發(fā)展,,為提振股價起到了重要作用。黃仁勛曾表示,,人工智能已經(jīng)到了變革的邊緣,,最終將會有1萬億的設(shè)備擁有人工智能,而英偉達(dá)也正在變?yōu)槿斯ぶ悄芄尽?/p>
黃仁勛在5月30日的演講上談到,,CPU的性能增長遇到瓶頸,,成長空間僅剩10%,而基于GPU的運算具有極大的潛力,,成為推動人工智能的關(guān)鍵技術(shù),。他表示,到2025年,,GPU的性能將是現(xiàn)在的1000倍,。
以GPU為基礎(chǔ)打入人工智能市場,英偉達(dá)一路高歌猛進(jìn),,目前已經(jīng)是人工智能GPU第一大廠,。十幾年前,人們開始將計算任務(wù)從CPU卸載到GPU,,英偉達(dá)2006年推出了CUDA技術(shù),,來解放GPU的計算能力,經(jīng)過多年的積累,,目前CUDA+GPU已經(jīng)在深度學(xué)習(xí)方面表現(xiàn)出了極強的適應(yīng)性和強大的計算能力,。
5月11日,英偉達(dá)在圣何塞的GPU技術(shù)大會上發(fā)布了新品Tesla V100,,又稱Volta,,號稱是史上最強的GPU加速器,專門針對服務(wù)器市場,,用來處理需要強大計算能力支持的密集型HPC,、AI和圖形處理任務(wù)。其運算架構(gòu)采用了臺積電12nm FFN制程,,集成了211億個晶體管和5120個計算機(jī)內(nèi)核,,并且配備了40個Tensor內(nèi)核,具有非常強大的深度學(xué)習(xí)性能,。相對于之前的Pascal架構(gòu),,深度學(xué)習(xí)訓(xùn)練速遞提升了12倍,推理速度也提升了6倍,。推理性能要比英特爾的Skylake CPU架構(gòu)快15到25倍,。每秒處理浮點運算能達(dá)到120萬億次。
英偉達(dá)代表了GPU方向,,那么另外兩個通往人工智能的重要方向——英特爾的CPU和谷歌的TPU又有什么樣的優(yōu)勢,?
作為CPU全球霸主,英特爾在切入人工智能的時候依然要用CPU做武器,。去年英特爾先后收購深度學(xué)習(xí)初創(chuàng)公司Nervana Systems(Nervana開發(fā)的Engine芯片在深度學(xué)習(xí)訓(xùn)練方面具有優(yōu)于傳統(tǒng)GPU的能耗和性能優(yōu)勢),、機(jī)器視覺初創(chuàng)公司Movidius,還曾用167億的價格收購了FPGA制造商Alera,。英特爾表示將在2017年推出深度學(xué)習(xí)專用芯片,,速度比GPU快10倍,并且將在2020年之前將深度學(xué)習(xí)訓(xùn)練速度提升100倍,。目前英偉達(dá)的GPU炒得火熱,,人們都在質(zhì)疑,關(guān)于人工智能,,到底是CPU更合適,,還是GPU更具有優(yōu)勢。
GPU包含多個流處理單元,,更加擅長大規(guī)模的并行計算,,適用于數(shù)據(jù)并行度高的計算密集型程序,對于AI這種編程框架,,尤其是對圖形圖像的計算速度遠(yuǎn)超CPU,。因此GPU更適合訓(xùn)練神經(jīng)網(wǎng)絡(luò),在AlphaGo給了人們更加深刻的關(guān)于人工智能的認(rèn)知之后,,GPU的優(yōu)勢也被放大,。雖然GPU有著可怕的數(shù)據(jù)運算能力,但是CPU是中央處理器,,是做通用計算的,,對于并行程度要求低,對數(shù)據(jù)的依賴性不高,,適合處理多樣的任務(wù),。在前期的數(shù)據(jù)獲取,例如圖像采集,、人臉識別,,以及后期的決策環(huán)節(jié)、和傳感器等渠道的信息綜合方面,,CPU都具有明顯優(yōu)勢,,而中間的過程靠GPU進(jìn)行并行計算,這樣才能給出完整的人工智能路徑。二者的側(cè)重點不同,,優(yōu)勢不同,,但都是人工智能發(fā)展所不可或缺的。英偉達(dá)雖然掌握了GPU霸權(quán),,英特爾的速度也慢了些,,但是那幾起收購案不可小覷。
值得注意的是,,最近升級版的AlphaGo再戰(zhàn)柯潔,,谷歌的TPU也逐漸被越來越多的人了解。不像CPU,、GPU發(fā)展多年,,TPU是谷歌推出TensorFlow框架幾年后才研發(fā)出來的,是專門針對TensorFlow框架,,服務(wù)于AI計算,。由于排除了GPU中的其他部分,留下了專門處理AI的部分,,因此TPU以其針對性和高效性被看好,。那么TPU是否能夠碾壓GPU和CPU呢?
不久前的I/O大會上,谷歌的第二代TPU亮相,。曾經(jīng)作為英偉達(dá)的客戶的谷歌,,如今為了更高效地推進(jìn)人工智能,自己研發(fā)專用芯片,。第二代TPU能夠達(dá)到180 TFLOP/s的浮點性能,,和傳統(tǒng)GPU相比提升15倍,比CPU提升30倍,。另外谷歌還推出一個TPU pod陣列,,能夠包含64顆二代TPU。與一代相比,,二代除了提高計算能力之外,,還提高了數(shù)據(jù)推理能力,前幾天AlphaGo的精彩表現(xiàn)就展示出了這一點,。
但是英偉達(dá)指出,,谷歌拿TPU和舊的GPU比是不合適的。另一方面,,GPU是通用芯片,,TPU則是專門為特定用途設(shè)計,只用來執(zhí)行單一工作的ASIC,,因此二者并不具有太大的可比性,。目前第二代TPU已經(jīng)能夠支持浮點運算,,而且能達(dá)到180萬億次,已經(jīng)超越了英偉達(dá)Tesla V100,,在人工智能的研究中,,谷歌的TPU具有明顯優(yōu)勢。
谷歌這樣的巨頭有充分的資源用自己造的TPU來對特定的研發(fā)任務(wù)進(jìn)行專用加速,,但是未來的市場,物聯(lián)網(wǎng)深入布局,,移動設(shè)備更加多樣,,會有更廣泛旺盛的需求,也會有更多變的算法需要實現(xiàn),。因此未來的市場面臨的是,,選擇功能強大的通用型芯片還是更加專業(yè)、有效的ASIC,。英偉達(dá)的重心在技術(shù)落地和變現(xiàn),,而谷歌則在全面探索人工智能。能夠高效率地解決更多的問題,,就是工具的價值所在,,目前圍繞AI芯片的所謂“三強爭霸”的說法并不準(zhǔn)確,專注GPU的英偉達(dá)能否成為起AI芯片界的高通未可知,,但是谷歌不會成為一個芯片公司,。 不管是CPU、GPU還是TPU,,都只是發(fā)展的必經(jīng)階段,。二代TPU和Volta很快會被迭代,芯片本身要服務(wù)于計算,,因此需要通過互相的借鑒和超越來互相推進(jìn),,滿足日益增長的計算需求。未來也許還會出現(xiàn)針對不同計算需求的ASIC,,也許也會出現(xiàn)一種或多種更加強大的通用型芯片,。