7月22日消息,,荷蘭埃因霍溫理工大學(xué)的研究人員開發(fā)了一種能夠進行片上訓(xùn)練的設(shè)備,無需將訓(xùn)練好的模型傳輸?shù)叫酒?,從而在未來開辟了更節(jié)能的人工智能(AI)芯片,。
據(jù)了解,,該開發(fā)使用神經(jīng)形態(tài)架構(gòu),,但已適應(yīng)主流人工智能框架,而不是脈沖網(wǎng)絡(luò),。訓(xùn)練神經(jīng)形態(tài)網(wǎng)絡(luò)可能很乏味,、耗時且能源效率低下,因為模型通常首先在計算機上訓(xùn)練,,然后傳輸?shù)叫酒稀?/p>
“在神經(jīng)形態(tài)芯片中,,有憶阻器。這些電路設(shè)備可以'記住'過去有多少電荷流過它們,?!盩U/e.機械工程系副教授Yoeri Van de Burgt說,他與Evaline van Doremaele合作參與了該項目,?!岸@正是以大腦神經(jīng)元如何存儲信息和相互通信為模型的設(shè)備所需要的?!?/p>
在計算機上完成訓(xùn)練后,,來自網(wǎng)絡(luò)的權(quán)重被映射到芯片硬件。另一種方法是在原位或硬件中進行訓(xùn)練,,但當(dāng)前設(shè)備需要逐個編程,,然后進行錯誤檢查。這是必需的,,因為大多數(shù)憶阻器都是隨機的,,如果不檢查設(shè)備,就不可能更新設(shè)備,。
“這些方法在時間,、能源和計算資源方面成本高昂。為了真正利用神經(jīng)形態(tài)芯片的能源效率,,需要直接在神經(jīng)形態(tài)芯片上進行訓(xùn)練,,“Van de Burgt說。
對于研究人員來說,,主要的挑戰(zhàn)是將芯片上訓(xùn)練所需的關(guān)鍵組件集成到單個神經(jīng)形態(tài)芯片上,。
“例如,要解決的一項主要任務(wù)是包含電化學(xué)隨機存取存儲器(EC-RAM)組件,,”Van de Burgt說,。“這些是模仿大腦中神經(jīng)元的電荷儲存和發(fā)射的組件,。
研究人員制造了一個基于由有機材料制成的EC-RAM組件的兩層神經(jīng)網(wǎng)絡(luò),,并通過廣泛使用的訓(xùn)練算法反向傳播和梯度下降的演變來測試硬件。
反向傳播算法的硬件實現(xiàn)使用原位隨機梯度下降逐步更新每一層,避免了存儲要求,。該設(shè)計包括原位誤差計算和多層硬件實現(xiàn)的神經(jīng)網(wǎng)絡(luò)中的漸進式反向傳播方法,。與軟件中的傳統(tǒng)反向傳播相比,這具有相同的學(xué)習(xí)特性和分類性能,,研究人員表明,,它可以擴展到大型和深度神經(jīng)網(wǎng)絡(luò),從而實現(xiàn)人工智能系統(tǒng)的高效訓(xùn)練,。
“我們已經(jīng)證明這適用于小型兩層網(wǎng)絡(luò),,”van de Burgt說?!敖酉聛?,我們希望讓工業(yè)界和其他大型研究實驗室參與進來,,這樣我們就可以建立更大的硬件設(shè)備網(wǎng)絡(luò),,并用現(xiàn)實生活中的數(shù)據(jù)問題來測試它們。
下一步將使研究人員能夠證明這些系統(tǒng)在訓(xùn)練以及運行有用的神經(jīng)網(wǎng)絡(luò)和人工智能系統(tǒng)方面非常有效,?!拔覀兿M麑⑦@項技術(shù)應(yīng)用于幾個實際案例,”Van de Burgt說,?!拔业膲粝胧亲屵@些技術(shù)在未來成為人工智能應(yīng)用的常態(tài)。