《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 業(yè)界動態(tài) > 谷歌英特爾英偉達間彼此競爭又互相需要

谷歌英特爾英偉達間彼此競爭又互相需要

2017-06-12

2001年6月26日,著名導演史蒂文·斯皮爾伯格執(zhí)導的《人工智能》(英文名:《AI》)在美國上映,。影片講述的是機器人小男孩大衛(wèi)為了尋找養(yǎng)母,,并縮短機器人與人類的差距而奮斗的故事。

谷歌英特爾英偉達間彼此競爭又互相需要" alt="AI時代 谷歌英特爾英偉達間彼此競爭又互相需要" src="http://images.ofweek.com/Upload/News/2017-06/10/Trista/1497059745328027861.jpg" width="600" height="393"/>

《人工智能》電影劇照

大衛(wèi)是一個被輸入情感程序的機器人男孩,,Cybertronics Manufacturing公司員工亨瑞和他妻子制造出的一個試驗品。他們收養(yǎng)了大衛(wèi),并給了他足夠的愛,,但是人類與機器都無法接受大衛(wèi)。于是大衛(wèi)踏上旅程去尋找真正屬于自己的地方,,渴望成為一個真正意義上的人,。

在這部影片上映15年后,機器人還沒有成為真正意義上的人, 但人工智能在圍棋領域戰(zhàn)勝了人類,。它的強大和超強的進化能力,,讓人類棋手難以望其項背。

AI時代 谷歌英特爾英偉達間彼此競爭又互相需要

AlphaGo以3:0戰(zhàn)勝柯潔九段

“AlphaGo Master比AlphaGo Lee(與李世石對戰(zhàn)的版本)要強大,,Master在對戰(zhàn)中耗費的能力(性能和功耗)僅是Lee版本的十分之一,,需要4個TPU在單臺電腦上運行即可?!盌eepMind首席科學家David Silver在AlphaGo戰(zhàn)勝李世石后這樣解釋說,。

AlphaGo強大到令人絕望,引發(fā)了“人工智能威脅人類”的討論,。但在本質(zhì)上,,人工智能是算法、數(shù)據(jù)和硬件三個要素綜合的結果,。

一旦涉及到算法,、數(shù)據(jù),,就離不開計算。在這個領域,,用來計算的硬件主要是TPU,、GPU和CPU,他們背后代表的公司則分別是谷歌,、英偉達和英特爾,。這幾家公司彼此競爭,又互相需要,。

TPU(Tensor Processing Unit)是專為機器學習而定制的芯片,,經(jīng)過了專門深度機器學習方面的訓練。谷歌工程師Norm Jouppi介紹,,在人工智能相關的算法上,,它的計算速度更快,計算結果更精準,,同時也更加節(jié)能,。

AI時代 谷歌英特爾英偉達間彼此競爭又互相需要

谷歌在I/O 2017上發(fā)布第二代Cloud TPU

人工智能依賴于機器學習(Machine Learning),機器學習又依賴于硬件,,它需要硬件平臺提供大量的運算資源,。就計算效率來說,專用工具的計算效率遠高于通用工具,。專門為機器學習定制而出現(xiàn)的谷歌的TPU就是一種專用的工具,,業(yè)內(nèi)普遍認為它的出現(xiàn)對于通用工具GPU來說是一種威脅。

GPU的設計初衷不是主要用來進行神經(jīng)網(wǎng)絡運算,,而是圖像處理,。由于其特殊的構造碰巧也比較適用于神經(jīng)網(wǎng)絡運算,所以在TPU出現(xiàn)之前,,大多數(shù)做機器學習廠商都在同時利用FPGA和GPU來改進訓練自己的神經(jīng)網(wǎng)絡算法,。

英偉達創(chuàng)始人兼CEO黃仁勛卻不認同“TPU威脅論”,在接受鳳凰科技的采訪時,,他表示谷歌的TPU不會對英偉達的Volta GPU構成威脅,,雙方在TensorFlow項目上保持著合作,而Volta GPU的運算能力甚至在TPU之上,。

作為世界最大的GPU制造商之一,英偉達一直不遺余力地推廣GPU在深度學習領域的應用,。老黃將英偉達稱為“一家人工智能公司”,。

談到英偉達基于GPU的人工智能戰(zhàn)略,需要先從Volta說起,。

在今年5月11日的NVIDIA GTC 2017上,,英偉達推出了全新的GPU架構Volta,。英偉達應用深度學習研究副總裁Bryan Catanzaro表示這并不是前代架構Pascal的升級,而是一個全新的架構,。Volta提供大量的FLOP(浮點運算),,基于Volta的架構,人們就可以使用需要更多FLOP的深度學習模型,。如今很多流行的模型都需要很大的計算資源,,例如卷積學習神經(jīng)網(wǎng)絡。

AI時代 谷歌英特爾英偉達間彼此競爭又互相需要

黃仁勛展示基于Volta架構的Tesla V100加速芯片

基于全新的Volta架構,,英偉達推出Tesla V100加速器,,它速度比其前身Tesla P100快2.4倍。

Tesla V100凝聚了英偉達內(nèi)部數(shù)千名工程師數(shù)年的開發(fā),,研發(fā)投入相當于30億美金,。黃仁勛在NVIDIA GTC 2017的主題演講中,展示了一塊Tesla V100,,他笑稱全世界唯一一塊就在他手上,,如果有人想買的話,那么價格就是30億美金,。

而在Tesla V100加速器基礎上,,英偉達推出了超級計算機DGX-1V和HGX。

DGX-1V內(nèi)置了8塊Tesla V100,,黃仁勛表示“DGX-1V相當于400個服務器”,,過去Titan X(GTX TITAN X,泰坦顯卡)需要花費8天訓練的神經(jīng)網(wǎng)絡,,DGX-1V只需要8個小時,,性能提升了24倍。

HGX是英偉達和微軟聯(lián)合開發(fā)的云圖形加速器,,是英偉達人工智能戰(zhàn)略的硬件支撐,。它同樣內(nèi)置了8塊Tesla V100。目前微軟的Project Olympus計劃,、Facebook的Big Basin系統(tǒng)都是使用的HGX作為數(shù)據(jù)中心設計方案的核心,。

黃仁勛在臺北國際電腦展的主題演講中表示,GPU的運算能力提升非???,能在未來取代CPU成為最主要的人工智能芯片。

但是英特爾并不這么認為,。臺北國際電腦展期間,,英特爾數(shù)據(jù)中心全球銷售部產(chǎn)品和技術總經(jīng)理陳葆立在接受鳳凰科技采訪時提到,TPU和GPU只是加速芯片,目前是無法獨立工作的,,沒有CPU它跑不起來,。

“不管是AMD或者是ARM出的CPU,都是不能直接連接到英偉達的GPU的,,連接的標準是PCIE(這屬于英特爾),,傳輸速度取決于PCIE的速度。但是目前我們自己的芯片組合可以跳過PCIE,,所以能比CPU+GPU更快,。”他說,。

在收購Nervana之后,,英特爾擁有了將至強融核處理器和FPGA兩個不同的芯片整合成一個芯片的能力。在最新的Nervana系統(tǒng)中,,就包含了FPGA加速芯片Arria 10和至強融核處理器的整合,。

AI時代 谷歌英特爾英偉達間彼此競爭又互相需要

Arria 10就是一款主流的Altera FPGA產(chǎn)品

FPGA最初是從專用集成電路發(fā)展起來的半定制化的可編程電路,它可以作為一種用以實現(xiàn)特殊任務的可再編程芯片應用與機器學習中,。

譬如百度的機器學習硬件系統(tǒng)就是用FPGA打造了AI專有芯片,,制成FPGA版百度大腦。FPGA比相同性能水平的硬件系統(tǒng)消耗能率更低,,在刀片式服務器上可以由主板上的PCI Express總線供電,。使用FPGA可以將一個計算得到的結果直接反饋到下一個,不需要臨時保存在主存儲器,,所以存儲帶寬要求也在相應降低,。

英特爾的方案是將CPU與FPGA融合起來,組合芯片的運算更加靈活和高效,,同時還能實現(xiàn)最低的功耗,,獲得性能和功耗的平衡。

人工智能方興未艾,,谷歌的TPU,、英偉達的GPU和英特爾的CPU組合方案,在硬件層面上都還只是嘗試,,這種嘗試能幫助實現(xiàn)早期的技術積累,。在采訪的最后陳葆立提到,雖然是不同的硬件平臺,,但是大家都在想辦法融合,,這有利于幫助開發(fā)者,從而真正幫助人工智能向前發(fā)展,。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章,、圖片、音/視頻文件等資料的版權歸版權所有權人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權者,。如涉及作品內(nèi)容、版權和其它問題,,請及時通過電子郵件或電話通知我們,,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失,。聯(lián)系電話:010-82306118,;郵箱:[email protected]