《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 可編程邏輯 > 其他 > AI爆發(fā)帶來的“超級摩爾定律”

AI爆發(fā)帶來的“超級摩爾定律”

2018-11-12

人工智能機器學(xué)習(xí)的爆炸式發(fā)展正在改變計算的本質(zhì),。


說這話的是谷歌軟件工程師Cliff Young,,而谷歌是人工智能最大的實踐者之一。


Cliff Young上周在硅谷的一個芯片研討會發(fā)表了主題演講,他說,,AI的使用已經(jīng)達到了一個“指數(shù)增長階段”(exponential phase),,與此同時,關(guān)于半導(dǎo)體發(fā)展的經(jīng)驗法則——摩爾定律——已經(jīng)陷入停滯。


摩爾定律的內(nèi)容是:集成電路上可容納的晶體管數(shù)目,,約每隔兩年便會增加一倍。經(jīng)常被引用的“18個月”是由英特爾的David House提的:每18個月,,芯片的性能提高一倍,。


“這個時間有點神經(jīng)質(zhì),”Cliff Young說:“數(shù)字CMOS的增速正在放緩,,我們也看到英特爾在10納米芯片的生產(chǎn)方面面臨困境,,還有格芯(GlobalFoundries)已經(jīng)宣布放棄了7納米制造工藝研發(fā),與此同時,,深度學(xué)習(xí)進展迅猛,,存在經(jīng)濟需求?!盋MOS即Complementary Metal Oxide Semiconductor(互補金屬氧化物半導(dǎo)體),,是計算機芯片最常見的材料。


Young認為,,由于傳統(tǒng)芯片難以實現(xiàn)更高的性能和效率,,來自AI研究人員的需求正在激增。他一口氣列舉了一些數(shù)據(jù):arXiv上關(guān)于機器學(xué)習(xí)的學(xué)術(shù)論文數(shù)量每18個月就增加一倍,;在谷歌,,專注于AI的內(nèi)部研究項目數(shù)量也每18個月增加一倍。更為激烈的是,,執(zhí)行機器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)所需的浮點運算量每三個半月就翻一番。

微信圖片_20181112190131.jpg

Young說,,所有這些計算需求的增長構(gòu)成了“超級摩爾定律”,,他稱這種現(xiàn)象“有點可怕”,“有點危險”,,“令人擔(dān)憂”,。


“為什么AI領(lǐng)域出現(xiàn)了這些指數(shù)級的增長?”他說,,“部分原因是,,深度學(xué)習(xí)確實有效?!?/p>


他說:“很長一段時間里,,我的職業(yè)生涯都忽視了機器學(xué)習(xí),因為那時尚不清楚這些東西會不會流行起來,?!?/p>


但后來,圖像識別等領(lǐng)域的突破開始迅速出現(xiàn),,很明顯,,深度學(xué)習(xí)“非常有效”,。Young說:“在過去5年的大部分時間里,谷歌一直是一家AI-first的公司,,我們以AI為基礎(chǔ)重建了大部分業(yè)務(wù),,從搜索業(yè)務(wù)到廣告業(yè)務(wù)等等?!?/p>


谷歌內(nèi)部領(lǐng)導(dǎo)AI研究的是Google Brain團隊,,它的需求是“巨型機器”。例如,,神經(jīng)網(wǎng)絡(luò)有時是通過他們使用的“權(quán)重”數(shù)量來測量的,,這些變量被應(yīng)用于神經(jīng)網(wǎng)絡(luò),以形成對數(shù)據(jù)的操縱,。


傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)必須要計算的可能有數(shù)十萬個這樣的權(quán)重,,甚至數(shù)百萬,谷歌的科學(xué)家們說“請給我們一個tera-weight級的機器”,,讓計算機能夠計算一萬億權(quán)重,。


這是因為“每次你將神經(jīng)網(wǎng)絡(luò)的大小增加一倍,它的準確率就會提高,?!盇I的規(guī)則就是越大越好。


當(dāng)然,,為了應(yīng)對這樣的需求,,谷歌一直在開發(fā)自己的機器學(xué)習(xí)芯片,即“張量處理單元”(Tensor Processing Unit,,TPU),。由于傳統(tǒng)的CPU和圖形芯片(GPU)跟不上速度,TPU以及類似的部件是需要的,。


Young說:“在很長一段時間里,,我們都躊躇不前,并表示英特爾和英偉達在構(gòu)建高性能系統(tǒng)方面做得非常好,。但我們在五年前跨過了這個門檻,。”


TPU于2017年首次亮相,,標榜其性能優(yōu)于傳統(tǒng)芯片,,引起了業(yè)界轟動。谷歌目前已進入TPU的第三次迭代,,不過是在內(nèi)部使用,,并通過谷歌云提供按需計算節(jié)點。

微信圖片_20181112190158.jpg

TPU v3 Pod


谷歌繼續(xù)制造越來越大的TPU實例。它的“pod”配置將1024個單獨的TPU連接在一起,,形成一臺新型超級計算機,,而且谷歌打算“繼續(xù)擴展”這個系統(tǒng)。


Young說:“我們正在打造巨大的多處理器計算機,,具有幾十petabytes的計算力,。我們同時向多個方向推進,tera-ops級的也在繼續(xù)開發(fā),?!?/p>


他說,這樣的工程“帶來了超級計算機設(shè)計中會出現(xiàn)的所有問題,?!?/p>


例如,谷歌工程師們采用了傳奇的超級計算機公司Cray所使用的技巧,。他們將芯片中負責(zé)神經(jīng)網(wǎng)絡(luò)計算的“巨大的矩陣乘法單元”與“通用向量單元”和“通用標量單元”結(jié)合在一起,。標量單元和向量單元的結(jié)合讓Cray的性能優(yōu)于其他處理器。


谷歌開發(fā)了自己的新型算法結(jié)構(gòu)來編程芯片,。所謂的“bfloat16”是一種表示實數(shù)的方法,,可以提高神經(jīng)網(wǎng)絡(luò)數(shù)字運算的效率。bfloat16的全稱是truncated 16-bit floating point(截斷浮點數(shù)),,被通俗地稱為“brain float”,。


TPU采用最快的內(nèi)存芯片,即所謂的高帶寬內(nèi)存(HBM),。在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時,,對內(nèi)存容量的需求也在激增。


Young說:“內(nèi)存在訓(xùn)練中更加集中,。不只是數(shù)億個權(quán)重,,還涉及處理神經(jīng)網(wǎng)絡(luò)激活變量的問題”。


谷歌也在調(diào)整編程神經(jīng)網(wǎng)絡(luò)的方式,,以充分利用硬件。他們在數(shù)據(jù)和模型并行性方面做了大量工作,,包括“Mesh TensorFlow”等項目,,這是對TensorFlow編程框架的改編,目的是將數(shù)據(jù)和模型并行性在pod-scale上結(jié)合起來,。


有一些技術(shù)細節(jié)Young不愿透露,。他指出,谷歌沒有過多地談?wù)摗盎ミB”(interconnects),,即數(shù)據(jù)在芯片中移動的方式,,只是說“我們有巨大的連接器”,拒絕提供更多信息。


Young談到一些可能并不遙遠的更有趣的計算領(lǐng)域,。例如,,他建議通過模擬芯片進行計算,這種電路將輸入作為連續(xù)值而不是作為1和0來處理,,這樣可以發(fā)揮重要作用,。他說:“也許我們將從模擬領(lǐng)域進行采樣,在物理,、模擬計算或非易失性技術(shù)方面確實有一些很酷的東西,。”


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章,、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者,。如涉及作品內(nèi)容,、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,,以便迅速采取適當(dāng)措施,,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118,;郵箱:[email protected],。