《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 人工智能 > 業(yè)界動(dòng)態(tài) > 無處不在的人工智能將依賴傳統(tǒng)內(nèi)存 ,,第二部分

無處不在的人工智能將依賴傳統(tǒng)內(nèi)存 ,,第二部分

2022-08-16
來源:laocuo1142

分布式 AI 的分層方法支持增量訓(xùn)練或“聯(lián)合學(xué)習(xí)”,從而實(shí)現(xiàn)持續(xù)改進(jìn),?!安粩嗟刂匦掠?xùn)練和更新神經(jīng)網(wǎng)絡(luò)。你必須有一些非易失性內(nèi)存或一些內(nèi)存,,你可以將這些更新推送到所有這些設(shè)備中——無論大小,。”

例如,,聯(lián)想的 ThinkEdge 包括一個(gè)支持人工智能的邊緣設(shè)備,。它使用高性能 DDR4 DRAM 和容量 SSD 來支持人工智能和機(jī)器學(xué)習(xí)模型,例如用于跟蹤倉(cāng)庫(kù)和物流操作或自動(dòng)化制造過程的計(jì)算機(jī)視覺,。

對(duì)于工業(yè)機(jī)器人和自動(dòng)駕駛汽車等汽車用例,,可能需要更多的內(nèi)存帶寬和容量,但不一定是最重要的,。

Macronix 技術(shù)營(yíng)銷總監(jiān) Jim Yastic 表示,,人工智能的炒作周期類似于物聯(lián)網(wǎng),現(xiàn)在物聯(lián)網(wǎng)在汽車,、工業(yè)和安全環(huán)境中發(fā)揮著重要作用,。IDC 預(yù)測(cè),到 2023 年,,70% 的物聯(lián)網(wǎng)部署將包括用于自主或邊緣決策的人工智能,,其中計(jì)算機(jī)視覺是增長(zhǎng)最快的邊緣人工智能應(yīng)用之一。

Yastic 表示,,分布式的人工智能方法是有意義的,,因?yàn)樵跀?shù)據(jù)中心做任何事情都是昂貴的。正如物聯(lián)網(wǎng)設(shè)備在本地具有更多處理能力一樣,更多的人工智能操作正在移出數(shù)據(jù)中心,,同時(shí)確定需要將哪些內(nèi)容發(fā)送回中央云,。

在工業(yè)和汽車領(lǐng)域,邊緣 AI 的內(nèi)存需求由各種類型的傳感器決定,,這些傳感器都執(zhí)行某種級(jí)別的過濾,,并通過將選定的數(shù)據(jù)發(fā)送回中心位置來幫助創(chuàng)建更好的 ML 模型。然后下載新模型,。

Yastic 說,,這種方法是必要的,因?yàn)槠嚨刃袠I(yè)根本無法在短時(shí)間內(nèi)處理 TB 級(jí)數(shù)據(jù),。即使有 5G 的可用性,,本地系統(tǒng)也必須快速做出一些明智的決定,而不需要來回傳輸大量數(shù)據(jù),。在自動(dòng)駕駛汽車中,,5G 支持 ADAS 和 AI 功能。

Yastic 表示,,不同設(shè)備必須做出決策的速度決定了 AI 系統(tǒng)架構(gòu),,因此也決定了以性能和密度衡量的內(nèi)存需求?!案鶕?jù)應(yīng)用的不同,,它可能只是一個(gè)”嵌入式多媒體卡。

內(nèi)存菜單

用于汽車和工業(yè) AI 的其他存儲(chǔ)設(shè)備可能包括通用閃存,、NAND 閃存 SSD,、DRAM 甚至 SRAM。

在許多這些生態(tài)系統(tǒng)中,,尤其是在汽車領(lǐng)域,,沒有改變的是可靠性、安全性和安保性,。這就是為什么現(xiàn)有內(nèi)存仍將是首選,,即使對(duì)于 AI 任務(wù)也是如此。就像今天的汽車是車輪上的服務(wù)器一樣,,它們也是嵌入式端點(diǎn)的集合,,包括傳感器和帶有板載內(nèi)存的攝像頭,它們的使用壽命與車輛一樣長(zhǎng),。

Yastic 預(yù)測(cè),高可靠性和長(zhǎng)壽命是 NOR 閃存將在汽車 AI 中長(zhǎng)期發(fā)揮作用的原因,,它可以在惡劣的環(huán)境中運(yùn)行十年或更長(zhǎng)時(shí)間,。它還因其快速啟動(dòng)能力而受到汽車制造商的青睞。例如,Macronix 的 OctaFlash SPI NOR 閃存提供快速啟動(dòng)和快速接口,,可以到達(dá)自動(dòng)駕駛汽車的大多數(shù)端點(diǎn),。

Yastic 指出,這也歸結(jié)為成本:NOR 閃存已經(jīng)存在了很長(zhǎng)時(shí)間,,因此價(jià)格點(diǎn)已經(jīng)下降,。

所有內(nèi)存技術(shù)都不可避免地增加了密度和性能,同時(shí)以更小的外形尺寸以更低的成本消耗更少的功率,。數(shù)據(jù)中心仍然需要高性能內(nèi)存來處理 AI 和 ML 工作負(fù)載,,但商品內(nèi)存也有機(jī)會(huì)滿足分布式系統(tǒng)中的許多 AI 需求。

根據(jù) Rambus 研究員 Steve Woo 的說法,,從長(zhǎng)遠(yuǎn)來看,,計(jì)算的歷史可以預(yù)測(cè) AI 系統(tǒng)內(nèi)存的未來?!敖裉斓某?jí)計(jì)算機(jī)就是明天的智能手機(jī),,”他指出。

一些需要高端硬件的早期 AI 模型現(xiàn)在可以使用更主流的內(nèi)存來處理,?!艾F(xiàn)在它更容易獲得,部分原因是半導(dǎo)體行業(yè)已經(jīng)為小型化做出了貢獻(xiàn),,并且不得不降低硬件成本,。”

今天的 HBM2 很快就會(huì)變成一些 DDR DIMM 和其他通過 Compute Express Link (CXL)連接的內(nèi)存,?!澳鷮⒛軌蜻_(dá)到今天看起來遙不可及的相同性能水平,”Woo 說,。

Woo 將人工智能的主流化比作智能手機(jī)長(zhǎng)達(dá)十年的演變,。“有各種各樣的開發(fā)人員想出了使用這項(xiàng)技術(shù)的新方法,,”他指出,。隨著規(guī)模的擴(kuò)大,市場(chǎng)發(fā)展到隨著數(shù)量的增加,,開發(fā)出服務(wù)于低功耗市場(chǎng)的專用存儲(chǔ)器,。Woo 期望 AI 記憶具有相同的協(xié)同作用?!俺杀緦⒗^續(xù)下降,。專業(yè)組件現(xiàn)在將是合理的,因?yàn)槟梢詾樗鼘?shí)現(xiàn) [投資回報(bào)],?!?/p>

Woo 補(bǔ)充說,,這些進(jìn)步也與互聯(lián)網(wǎng)的架構(gòu)變化相一致?!皵?shù)據(jù)移動(dòng)正在成為瓶頸,。” 將數(shù)據(jù)移動(dòng)到云端進(jìn)行處理會(huì)消耗過多的能源,,因此在本地進(jìn)行處理可以降低成本并提高性能,,同時(shí)消耗更少的電力。

Woo 還看到了推理和計(jì)算任務(wù)以及端點(diǎn)類型來確定隨著 AI 的進(jìn)步哪些存儲(chǔ)器最適合,。無論如何,,熱特性和功率限制將是一個(gè)因素?!澳憧梢钥吹饺∩?。” 他說,,如果只是推理,,那么片上 SRAM 可能就足夠了。

Woo 說,,隨著人工智能變得無處不在并分布在不同的平臺(tái)上,,最終對(duì)記憶至關(guān)重要的是神經(jīng)網(wǎng)絡(luò)的精簡(jiǎn),例如,,使它們成為主流人工智能平臺(tái),。

Rambus 研究員補(bǔ)充說,在可預(yù)見的未來,,基于人工智能的應(yīng)用程序?qū)⑿枰?jí)計(jì)算,,但摩爾定律縮放和其他內(nèi)存進(jìn)步將有助于使數(shù)據(jù)更接近計(jì)算資源。任何新的內(nèi)存類型面臨的挑戰(zhàn)是展示證明替換經(jīng)過嘗試和真實(shí)的東西的好處,。

“行業(yè)中真正需要的內(nèi)存數(shù)量有限,。在很多情況下,有很多現(xiàn)任者似乎足夠優(yōu)秀,,”Woo 說,。



更多信息可以來這里獲取==>>電子技術(shù)應(yīng)用-AET<<

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點(diǎn),。轉(zhuǎn)載的所有的文章、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容,、版權(quán)和其它問題,,請(qǐng)及時(shí)通過電子郵件或電話通知我們,,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失,。聯(lián)系電話:010-82306118;郵箱:[email protected],。