為了在人工智能市場搶占更大的份額,,英偉達和 Alphabet 這兩家公司結(jié)成了意想不到的對手,。到目前為止,Alphabet 一直在谷歌云平臺使用英偉達的 GPU 加速其各種 AI 應(yīng)用,,但現(xiàn)在看來,,這家巨頭很是有意自己單獨切入這塊有著巨額利潤的空間,。
就讓我們仔細看看英偉達和谷歌在人工智能上的淵源,,以及可能產(chǎn)生的影響,。
谷歌揭幕 TPU 第二代,在谷歌云平臺構(gòu)建機器學(xué)習(xí)超級計算機
Alphabet 在去年谷歌 I/O 大會上推出了自己的 AI 芯片——張量處理器 TPU,。TPU 被廣泛用于各種應(yīng)用,,包括優(yōu)化搜索和語音識別的結(jié)果,在 Alphabet 的數(shù)據(jù)中心里也有使用,。
與此同時,,谷歌也在云計算平臺使用英偉達的 Tesla GPU,,幫助用戶訓(xùn)練模型,。例如,2016 年 11 月,,英偉達就對外公布了,,谷歌選擇使用英偉達的 Tesla P100 GPU 和 K80 加速器為谷歌計算引擎(Google Compute Engine)和谷歌云機器學(xué)習(xí)用戶提供 AI 服務(wù)。
但是,,在今年 5 月 I/O 大會上,,谷歌推出第二代 TPU,并且通過云服務(wù)供用戶使用,,此舉震驚了科技界,。在今年 4 月發(fā)布的一篇官方博文中,谷歌表示 TPU 比當(dāng)前的 CPU/GPU 速度快 15~30 倍,。
第一代 TPU 只加速推理,,但現(xiàn)在第二代 TPU 新增了訓(xùn)練的功能。不僅如此,,谷歌的用戶還能通過專門的網(wǎng)絡(luò),,在云端利用 TPU 構(gòu)建機器學(xué)習(xí)的超級計算機。
事實上,,谷歌宣布自己已經(jīng)成功將某些 AI 模型的訓(xùn)練時間縮短到幾個小時,,以前這樣的模型用市售 GPU 需要一天時間來訓(xùn)練。
到今年年底,,當(dāng)谷歌 TPU 推出時,,這可能意味著谷歌和英偉達在 AI 芯片上關(guān)系的終結(jié)。
英偉達:用開源來反擊
英偉達的回應(yīng)是,,谷歌在比較 TPU 相對于 GPU 的速度時,,沒有與最新的 Pascal 架構(gòu)比較,,而是選擇了較早的 Kepler GPU。
此外,,英偉達也沒有閑著,,宣稱即將上市的 Volta GPU 加速深度學(xué)習(xí)的性能會更好。
實際上,,英偉達不僅僅定位于硬件供應(yīng)商,,這家公司正在開發(fā)一個名叫英偉達 GPU 云(NVIDIA GPU Cloud,NGC)的服務(wù),,將配套提供 GPU(比如英偉達基于 Volta 的 Tesla V100)和英偉達深度學(xué)習(xí)庫,。
英偉達采取了與谷歌不同的方式,專注將 AI 計算力作為平臺即服務(wù)(platform-as-a-service)來提供,。
谷歌不會對外出售 TPU,,而是用 TPU 驅(qū)動自己的Google Compute 平臺。因此,,英偉達目前還無需擔(dān)憂失去谷歌這一客戶,。另一方面,Volta GPU 平臺已經(jīng)開始具有商業(yè)吸引力,,亞馬遜已確定在今年晚些時候 V100 芯片上市后立即購入,。
英偉達的另一個優(yōu)勢在于,谷歌還沒有決定要開源 AI 框架,,因此 TPU 的用戶被鎖定在谷歌的平臺上,。而英偉達支持各種不同的云平臺,包括亞馬遜,、微軟,、谷歌、IBM,,給了用戶在云服務(wù)供應(yīng)商(CSP)方面更多的選擇,。
此外,英偉達 CEO 黃仁勛還出了一個狠招,,他在公司官方博文中寫道,,要開源英偉達的深度學(xué)習(xí)加速器?!安恍枰賮砣送顿Y打造會推理的 TPU,,我們這里免費提供——由世界上最好的芯片設(shè)計師設(shè)計?!?/p>
相對于局限在谷歌云服務(wù)中的 TPU,,英偉達的開源讓其產(chǎn)品成了 CSP 巨頭,比如亞馬遜和微軟的選擇,。同時,,谷歌云平臺還不如亞馬遜和微軟的云平臺那么成功,,而這也將限制谷歌云平臺的發(fā)展。