文獻(xiàn)標(biāo)識(shí)碼: A
DOI: 10.19358/j.issn.2096-5133.2021.06.007
引用格式: 陳雅倩,,黃魯. 基于浮柵器件的低位寬卷積神經(jīng)網(wǎng)絡(luò)研究[J].信息技術(shù)與網(wǎng)絡(luò)安全,,2021,40(6):38-42.
0 引言
卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,,CNN)在圖像識(shí)別等領(lǐng)域有著廣泛的應(yīng)用,隨著網(wǎng)絡(luò)深度的不斷增加,,CNN模型的參數(shù)也越來越多,,例如Alexnet[1]網(wǎng)絡(luò),結(jié)構(gòu)為5層卷積層,,3層全連接層,,網(wǎng)絡(luò)參數(shù)超過5 000萬(wàn),全精度的模型需要250 MB的存儲(chǔ)空間,,而功能更加強(qiáng)大的VGG[2]網(wǎng)絡(luò)和Res[3]網(wǎng)絡(luò)的深度以及參數(shù)量更是遠(yuǎn)遠(yuǎn)超過Alexnet,。對(duì)于這些卷積神經(jīng)網(wǎng)絡(luò),每個(gè)運(yùn)算周期都需要對(duì)數(shù)百萬(wàn)個(gè)參數(shù)進(jìn)行讀取和運(yùn)算,,大量參數(shù)的讀取既影響網(wǎng)絡(luò)的計(jì)算速度也帶來了功耗問題,。基于馮諾依曼架構(gòu)的硬件由于計(jì)算單元和存儲(chǔ)單元分離,,在部署CNN模型時(shí)面臨存儲(chǔ)墻問題,,數(shù)據(jù)頻繁搬運(yùn)消耗的時(shí)間和能量遠(yuǎn)遠(yuǎn)大于計(jì)算單元計(jì)算消耗的時(shí)間和能量。
存算一體架構(gòu)的硬件相對(duì)于馮諾依曼架構(gòu)的硬件,,將計(jì)算單元和存儲(chǔ)單元合并,,大大減少了數(shù)據(jù)的傳輸,從而降低功耗和加快計(jì)算速度[4],,因此將深度卷積神經(jīng)網(wǎng)絡(luò)部署在基于存算一體架構(gòu)的硬件上具有廣闊的前景,。目前實(shí)現(xiàn)存算一體化的硬件主要包括相變存儲(chǔ)器[5](Phase Change Memory,,PCM),阻變存儲(chǔ)器ReRAM[6]以及浮柵器件Flash,,其中Flash由于制造工藝成熟,,受到廣泛關(guān)注。
本文詳細(xì)內(nèi)容請(qǐng)下載:http://forexkbc.com/resource/share/2000003598
作者信息:
陳雅倩,,黃 魯
(中國(guó)科學(xué)技術(shù)大學(xué) 微電子學(xué)院,,安徽 合肥230026)