《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 業(yè)界動態(tài) > 采用PIM等優(yōu)化AI芯片設(shè)計的新方法

采用PIM等優(yōu)化AI芯片設(shè)計的新方法

2018-05-30
關(guān)鍵詞: inference 存儲器 加速器

比利時研究機構(gòu)Imec在近日舉行的年度技術(shù)論壇(ITF BELGIUM 2018)上透露,該機構(gòu)正在打造一款采用單位元精度的深度學(xué)習(xí)推論(inference)芯片原型,;Imec并期望在明年收集采用創(chuàng)新資料型態(tài)與架構(gòu)──采用存儲器內(nèi)處理器(processor-in-memory,,PIM),,或是類比存儲器結(jié)構(gòu)(analog memory fabric)──的客戶端裝置有效性資料。


學(xué)術(shù)界已經(jīng)研究PIM架構(gòu)數(shù)十年,,而該架構(gòu)越來越受到資料密集的機器算法歡迎,,例如新創(chuàng)公司Mythic以及IBM Research都有相關(guān)開發(fā)成果,。許多學(xué)術(shù)研究機構(gòu)正在實驗1~4位元的資料型別(data type),以減輕深度學(xué)習(xí)所需的沉重存儲器需求,;到目前為止,,包括Arm等公司的AI加速器商用芯片設(shè)計都集中在8位元或更大容量的資料型別,部分原因是編程工具例如Google的TensorFlow缺乏對較小資料型別的支援,。


Imec擁有在一家晶圓代工廠制作的40奈米制程加速器邏輯部份,,而現(xiàn)在是要在自家晶圓廠添加一個MRAM層;該機構(gòu)利用SRAM模擬此設(shè)計的性能,,并且評估5奈米節(jié)點的設(shè)計規(guī)則,。此研究是Imec與至少兩家匿名IDM業(yè)者伙伴合作、仍在開發(fā)階段的項目,,從近兩年前展開,,很快制作了采用某種電阻式存儲器(ReRAM)的65奈米PIM設(shè)計原型。


該65奈米芯片并非鎖定深度學(xué)習(xí)算法,,雖然Imec展示了利用它啟動一段迷人的計算機合成音樂,;其學(xué)習(xí)模式是利用了根據(jù)以音樂形式呈現(xiàn)、從傳感器所串流之資料的時間序列分析(time-series analysis),。而40奈米低功耗神經(jīng)網(wǎng)絡(luò)加速器(Low-Energy Neural Network Accelerator,,LENNA)則會鎖定深度學(xué)習(xí),在相對較小型的MRAM單元中運算與儲存二進制權(quán)重,。


Imec技術(shù)團隊的杰出成員Diederik Verkest接受EE Times采訪時表示:「我們的任務(wù)是定義出我們應(yīng)該利用新興存儲器為機器學(xué)習(xí)開發(fā)什么樣的半導(dǎo)體技術(shù)──或許我們會需要制程上的調(diào)整,,」以取得最佳化結(jié)果。該機構(gòu)半導(dǎo)體技術(shù)與系統(tǒng)部門執(zhí)行副總裁An Steegen則表示:「AI會是制程技術(shù)藍圖演化的推手,,因此Imec會在AI (以及PIM架構(gòu))方面下很多功夫──這方面的工作成果將會非常重要,。」

微信圖片_20180530234716.jpg


圖:Imec聲稱其LENNA芯片在推論任務(wù)上的表現(xiàn)將超越現(xiàn)有的CPU與GPU(來源:Imec)


確實,,如來自英國的新創(chuàng)公司Graphcore執(zhí)行長Nigel Toon所言,,AI標志著「運算技術(shù)的根本性轉(zhuǎn)變」;該公司將于今年稍晚推出首款芯片,。Toon在Imec年度技術(shù)論壇上發(fā)表專題演說時表示:「今日的硬件限制了我們,,我們需要某種更靈活的方案…我們想看到能根據(jù)經(jīng)驗調(diào)整的(神經(jīng)網(wǎng)絡(luò))模型;」他舉例指出,,兩年前Google實習(xí)生總共花了25萬美元電費,,只為了在該公司采用傳統(tǒng)x86處理器或Nvidia GPU的資料中心嘗試最佳化神經(jīng)網(wǎng)絡(luò)模型。


實現(xiàn)復(fù)雜的折衷平衡


Imec希望LENNA能在關(guān)于PIM或類比存儲器架構(gòu)能比需要存取外部存儲器的傳統(tǒng)架構(gòu)節(jié)省多少能量方面提供經(jīng)驗,;此外該機構(gòu)的另一個目標,,是量化采用二進制方案在精確度、成本與處理量方面的折衷(tradeoff),。

加速器芯片通常能在一些熱門的測試上提供約90%的精確度,,例如ImageNet競賽,;Verkest表示,單位元資料型別目前有10%左右的精度削減,,「但如果你調(diào)整你的神經(jīng)網(wǎng)絡(luò),,可以達到最高85%~87%的精確度?!顾矩撠煻綄?dǎo)Imec的邏輯制程微縮技術(shù)藍圖,,在Apple挖腳該機構(gòu)的第一個AI項目經(jīng)理之后,又兼管AI項目,。


Verkest表示,,理論上類比存儲器單元應(yīng)該能以一系列數(shù)值來儲存權(quán)重(weights),但是「那些存儲器元件的變異性有很多需要考量之處,;」他指出,Imec的開發(fā)項目將嘗試找出能提供最佳化精度,、處理量與可靠度之間最佳化平衡的精度水平,。


而Toon則認為聚焦于資料型別是被誤導(dǎo)了:「低精度并沒有某些人想得那么嚴重,存儲器存取是我們必須修正之處,;」他并未詳細介紹Graphcore的解決方案,,但聲稱該公司技術(shù)可提供比目前采用HBM2存儲器的最佳GPU高40倍的存儲器頻寬。


在芯片架構(gòu)方面,,Imec的研究人員還未決定他們是要設(shè)計PIM或采用類比存儲器結(jié)構(gòu),;后者比較象是一種類比SoC,計算是在類比區(qū)塊處理,,可因此減少或免除數(shù)位-類比轉(zhuǎn)換,。不同種類的神經(jīng)網(wǎng)絡(luò)會有更適合的不同架構(gòu),例如卷積神經(jīng)網(wǎng)絡(luò)(CNN)會儲存與重復(fù)使用權(quán)重,,通常能以傳統(tǒng)GPU妥善運作,;歸遞神經(jīng)網(wǎng)絡(luò)(RNN)以及長短期記憶模型(long short-term memories,LSTMs)則傾向于在使用過后就拋棄權(quán)重,,因此更適合表達式存儲器結(jié)構(gòu)

微信圖片_20180530234742.jpg


圖:Imec可能會以存儲器結(jié)構(gòu)來打造LENNA,,讓運算留在類比功能區(qū)塊(來源:Imec)


新的平行架構(gòu)非常難編程,因此大多數(shù)供應(yīng)商正在嘗試建立在TensorFlow等現(xiàn)有架構(gòu)中攝取程序碼的途徑,。而Graphcore則是打造了一種名為Poplar的軟件層,,旨在以C++或Python語言來完成這項工作;Toon表示:「我們把在處理器中映射圖形(graphs)的復(fù)雜性推到編譯器(也就是扮演該角色的Poplar),?!?/p>


Graphcore的客戶很快就會發(fā)現(xiàn)該程序會有多簡單或是多困難;這家新創(chuàng)公司預(yù)計在年中將第一款產(chǎn)品出貨給一線大客戶,,預(yù)期他們會在今年底采用該款芯片執(zhí)行大型云端供應(yīng)商的服務(wù),。Toon聲稱,,其加速器芯片將能把CNN的速度提升五至十倍,同時間采用RNN或LSTM的更復(fù)雜模型則能看到100倍的效能提升,。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點,。轉(zhuǎn)載的所有的文章,、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者,。如涉及作品內(nèi)容、版權(quán)和其它問題,,請及時通過電子郵件或電話通知我們,,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失,。聯(lián)系電話:010-82306118,;郵箱:[email protected]