7 月 31 日消息,,來自明尼蘇達(dá)大學(xué)雙城校區(qū)的研究團隊最新研制出計算隨機存取存儲器(CRAM),可以將 AI 芯片的能耗降至千分之一,。
國際能源機構(gòu) (IEA) 預(yù)測,,AI 的能源消耗將翻一番,,2022 年耗電量為 460 太瓦時(TWh),,而在 2026 年耗電量預(yù)估將達(dá)到 1000 太瓦時,。
團隊表示,傳統(tǒng) AI 芯片需要在邏輯(處理)和內(nèi)存(存儲)之間不斷傳輸數(shù)據(jù),,因此導(dǎo)致耗電量巨大,。
而 CRAM 新型存儲器通過將數(shù)據(jù)保存在存儲器內(nèi)進(jìn)行處理來解決這一問題,數(shù)據(jù)無需離開計算機存儲信息的網(wǎng)格,,可以完全在內(nèi)存陣列中進(jìn)行處理。
團隊表示和傳統(tǒng)方法相比,,基于 CRAM 的機器學(xué)習(xí)推理加速器能耗可降低至千分之一,,甚至在某些場景應(yīng)用下可以達(dá)到 1/1700 或者 1/2500。
該團隊成立于 2003 年,,由物理學(xué),、材料科學(xué)、計算機科學(xué)和工程學(xué)專家組成,,在過去 20 多年來一直開發(fā)該技術(shù),。
該研究以磁性隧道結(jié)(Magnetic Tunnel Junctions,MTJs)相關(guān)專利為基礎(chǔ),,而 MTJ 是硬盤,、傳感器和其他微電子系統(tǒng)(包括磁隨機存取存儲器 MRAM)中使用的納米結(jié)構(gòu)器件。
CRAM 架構(gòu)克服了傳統(tǒng)馮-諾依曼架構(gòu)(計算和內(nèi)存是兩個獨立的實體)的瓶頸,,能夠比傳統(tǒng)系統(tǒng)更有效地滿足各種人工智能算法的性能需求,。
明尼蘇達(dá)大學(xué)團隊目前正與半導(dǎo)體行業(yè)的領(lǐng)導(dǎo)者合作,擴大演示規(guī)模,,并生產(chǎn)必要的硬件,,以更大規(guī)模地降低人工智能能耗。