"ASIC(專用集成電路,Application Specific Integrated Circuit)是不可配置的高度定制專用芯片。特點是需要大量的研發(fā)投入,如果不能保證出貨量其單顆成本難以下降,而且芯片的功能一旦流片后則無更改余地,若市場深度學(xué)習(xí)方向一旦改變,ASIC前期投入將無法回收,意味著ASIC具有較大的市場風(fēng)險,。目前,大多是具備AI算法又擅長芯片研發(fā)的巨頭參與,如Google的TPU,。ASIC在性能和功耗上都要優(yōu)于GPU和FPGA,TPU1是傳統(tǒng)GPU性能的14-16倍,NPU是GPU的118倍。寒武紀(jì)已發(fā)布對外應(yīng)用指令集,預(yù)計ASIC將是未來AI芯片的核心,。"
人工智能下的芯片新需求
隨著人工智能產(chǎn)業(yè)鏈的火速延伸,GPU并不能滿足所有場景(如手機)上的深度學(xué)習(xí)計算任務(wù), GPU并不是深度學(xué)習(xí)算力痛點的唯一解,。目前以深度學(xué)習(xí)為代表的人工智能計算需求,主要采用GPU、FPGA等已有適合并行計算的通用芯片來實現(xiàn)加速,。
在產(chǎn)業(yè)應(yīng)用沒有大規(guī)模興起之時,使用這類已有的通用芯片可以避免專門研發(fā)定制芯片(ASIC)的高投入和高風(fēng)險,。但是,由于這類通用芯片設(shè)計初衷并非專門針對深度學(xué)習(xí),因而天然存在性能、功耗等方面的瓶頸,。隨著人工智能應(yīng)用規(guī)模的擴大,這類問題將日益突出,。
正如CPU改變了當(dāng)年龐大的計算機一樣,人工智能ASIC芯片也將大幅改變?nèi)缃馎I硬件設(shè)備的面貌。如大名鼎鼎的AlphaGo使用了約170個圖形處理器(GPU)和1200 個中央處理器(CPU),這些設(shè)備需要占用一個機房,還要配備大功率的空調(diào),以及多名專家進行系統(tǒng)維護,。而如果全部使用專用芯片,非??赡苤恍枰粋€盒子大小,且功耗也會大幅降低。
在芯片需求還未成規(guī)模,、深度學(xué)習(xí)算法暫未穩(wěn)定需要不斷迭代改進的情況下,利用具備可重構(gòu)特性的FPGA芯片來實現(xiàn)半定制的人工智能芯片是最佳選擇,。隨著人工智能算法和應(yīng)用技術(shù)的日益發(fā)展,以及人工智能專用芯片ASIC產(chǎn)業(yè)環(huán)境的逐漸成熟,人工智能下ASIC將成為人工智能計算芯片發(fā)展的必然趨勢。
ASIC芯片撬動產(chǎn)業(yè)的支點
人工智能硬件應(yīng)用場景歸納為云端場景和終端場景兩大類,。云端主要指服務(wù)器端,包括各種共有云,、私有云、數(shù)據(jù)中心等業(yè)務(wù)范疇;終端主要指包括安防,、車載,、手機、音箱,、機器人等各種應(yīng)用在內(nèi)的移動終端,。由于算法效率和底層硬件選擇密切相關(guān),“云端”(服務(wù)器端)和“終端”(產(chǎn)品端)場景對硬件的需求也不同。人工智能目前主流使用三種專用核心芯片,分別是GPU,FPGA,ASIC,。
①GPU是最為普遍使用的一種,通過CUDA接口可以讓原本只可以用來玩游戲的GPU進行通用計算,。進入2017年之后,原本做顯卡芯片的NVIDIA立馬搖身一變成了人工智能行業(yè)里的泰山北斗,幾乎所有做人工智能技術(shù)的公司,都會買來一大堆NVIDIA的顯卡,進行深度學(xué)習(xí)運算。
②FPGA芯片,其使用門檻比GPU要高一些,但效率要高很多,賽靈思公司稱其產(chǎn)品在特定情況下比GPU高數(shù)十倍,。FPGA是一種可編程的電路,所以可以根據(jù)需求重新刷寫,可以根據(jù)變成模擬成聲卡,、顯卡或者其他不同類型的芯片,在以往主要用于芯片研發(fā)的模擬階段。由于其“可變”的特性,FPGA也可以刷寫成人工智能芯片進行深度學(xué)習(xí)的計算,。不過深度學(xué)習(xí)有很多種,語音和視覺的算法都不一樣,在進行不同運算時就需要重新刷一下FPGA芯片,。
③ASIC是一種全定制的芯片,比特幣礦機所用的就是AISC。其效率極高,而單芯片成本很低,例如2013年的時候一顆功耗只有幾瓦的阿瓦隆ASIC,挖比特幣的算力相當(dāng)于好幾塊功耗上百瓦的顯卡之和,。
ASIC的市占率可望隨著邊緣運算的需求增加而明顯攀升,從2018年的11%增加至2025年的52%,。ASIC之所以受到青睞,原因在于新興的深度學(xué)習(xí)處理器架構(gòu)多以圖形(Graph)或Tensorflow為基礎(chǔ)架構(gòu);且上述提到AI邊緣運算受限于功耗和運算效能,因此多以推論為主,而非訓(xùn)練。
若假設(shè)到2021年時,終端設(shè)備將導(dǎo)入大量AI芯片,所需要的便是能在同一個芯片上進行推理和訓(xùn)練,可因應(yīng)分散式運算且又具低功耗的IC,因此ASIC需求將持續(xù)上揚,實現(xiàn)更多AI邊緣應(yīng)用案例,。
ASIC是國內(nèi)芯片的新機遇
人工智能芯片向ASIC轉(zhuǎn)移將在全球開辟一塊新戰(zhàn)場,這也是中國芯片的機會,。中國芯片在設(shè)計,、制造、封測三大產(chǎn)業(yè)鏈環(huán)節(jié)均落后于世界先進水平,部分領(lǐng)域甚至跟發(fā)達國家有10年-20年的差距,。這讓中國的芯片領(lǐng)域過分依賴進口貿(mào)易,。全球調(diào)研機構(gòu)IC Insights在2016年公布了全球半導(dǎo)體20強,前20位中沒有中國公司上榜。
由于專利積累,、軟件生態(tài)配套不足等原因,中國在已經(jīng)落后的傳統(tǒng)芯片領(lǐng)域想要追趕領(lǐng)先者頗為困難,。而在沒有太多歷史包袱、有新技術(shù)突破的芯片領(lǐng)域,中國跟其他國家站在同一起跑線上,有機會占據(jù)領(lǐng)先位置?,F(xiàn)階段,中國彎道超車的最大希望存在于人工智能(AI)芯片領(lǐng)域,。
谷歌和英偉達公司是人工智能處理領(lǐng)域的兩大巨頭,但英偉達主要專注于GPU。人工智能領(lǐng)域的ASIC專用芯片仍是一片藍海,尚未出現(xiàn)足以壟斷市場的巨頭公司,。
在AI領(lǐng)域?qū)S眯酒?除了谷歌,研發(fā)者大多為充滿活力的新興公司,其中活躍著不少中國公司,如寒武紀(jì),、地平線等。AI芯片上可以說是美國第一,中國第二,。目前人工智能芯片正在重演礦機芯片的演化路徑——從CPU/GPU/FPGA到ASIC專用芯片,。而國內(nèi)企業(yè)也有機會將成熟的ASIC芯片技術(shù)拓展到人工智能領(lǐng)域。
結(jié)尾
ASIC無論是從性能,、面積,、功耗等各方面都優(yōu)于GPU和FPGA,長期來看無論在云端和終端,ASIC都代表AI芯片的未來,目前包括微軟、谷歌,、英特爾等巨頭都重金投到ASIC領(lǐng)域,不過由于目前AI算法快速迭代,且ASIC開發(fā)周期較長,、需要底層硬件編程、占據(jù)芯片成本等,因此雖然前景利好,但也需要芯片公司對其進行提前布局,搶占這未來芯片的潛在流量池,。