從傳統(tǒng)芯片一統(tǒng)產(chǎn)業(yè)的時代走來,,AI芯片的發(fā)展并非一帆風順,泡沫充斥,、資本遇冷,、人才稀缺……不過,在半導體產(chǎn)業(yè)整體步入下行周期的2022年,,AI芯片反倒扛住了爭議和質(zhì)疑,,在服務(wù)器、汽車等領(lǐng)域顯現(xiàn)出了日益放大的價值效應,。
2022年的這三大技術(shù)和應用趨勢,,有望成為AI芯片未來幾年的關(guān)鍵動力:
智能算力反超通用算力規(guī)模
當前,我國通用算力的數(shù)據(jù)中心仍是市場主力,,按機架規(guī)模統(tǒng)計,,占比超過90%。隨著我國高性能計算,、AI計算及邊緣計算需求提升,,超算中心、智算中心及邊緣數(shù)據(jù)中心將進一步發(fā)展,,特別是智算中心,,正在從早期實驗探索逐步走向商業(yè)試點。
IDC數(shù)據(jù)顯示,,2022年我國智能算力規(guī)模達到268 EFLOPS,,超過通用算力規(guī)模。預計未來五年,,我國智能算力規(guī)模的年復合增長率將達52.3%,,超出同期通用算力規(guī)模18.5%的年復合增長率,到2026年,,我國智能算力規(guī)模將達到1271.4EFLOPS,。
同時,邊緣計算需要處理的數(shù)據(jù)量會越來越多,,算力要求也將逐步提高,。邊緣側(cè)的設(shè)備也不再拘泥于簡單的數(shù)據(jù)采集,還會有大量的邊緣網(wǎng)關(guān),、邊緣AI,、邊緣可擴展型服務(wù)器等設(shè)備,協(xié)助前端數(shù)據(jù)處理,,將處理后的數(shù)據(jù)傳輸給云端,,有效減輕云端的數(shù)據(jù)壓力,用戶也可根據(jù)自己的實際業(yè)務(wù),靈活就近選擇邊緣計算節(jié)點或中心云計算節(jié)點,。
邊緣計算場景大致有兩條路線:一是高性能通用處理器做專用設(shè)備,,為場景提供專用算力;二是高度集成化,、低功耗化的SoC芯片,,通過自主設(shè)計降低功耗的同時,可實現(xiàn)中低端邊緣計算設(shè)備的戶外現(xiàn)場應用,,可大量部署在工業(yè)等現(xiàn)場,。這些方案也可以疊加AI芯片、FPGA等,,針對某類場景提供定制化算法,,提升邊緣計算的能力。
從AI芯片角度來看,,隨著AI產(chǎn)業(yè)技術(shù)不斷提升,,產(chǎn)業(yè)AI化加速落地,全球AI芯片市場將高速增長,。IDC預計,,到2025年AI芯片市場規(guī)模將達726億美元。異構(gòu)計算成為主流趨勢,,未來18個月,,全球AI服務(wù)器GPU、ASIC和FPGA的搭載率均會上升,算力多元化發(fā)展趨勢明顯,。
從計算架構(gòu)發(fā)展來看,基于 DSA( Domain-Specific Architectures)思想設(shè)計的AI芯片正在成為主導,,推動了AI芯片的多元化發(fā)展,。此外,多元算力從“能用”到“好用”并且為企業(yè)創(chuàng)造業(yè)務(wù)價值,,離不開通用性強,、綠色高效、安全可靠的計算系統(tǒng)的支持,。業(yè)內(nèi)正在推動多元算力系統(tǒng)架構(gòu)創(chuàng)新,,基于計算節(jié)點內(nèi)和節(jié)點間的互聯(lián)技術(shù)破局現(xiàn)有計算架構(gòu)的瓶頸,通過充分調(diào)動起多芯片,、多板卡,、多節(jié)點的系統(tǒng)級能力,實現(xiàn)各種加速單元以及跨節(jié)點系統(tǒng)的高效協(xié)同,,提升計算性能,。
從場景應用維度來看,智能化場景將隨著時間的推移,呈現(xiàn)出更加深入,、更加廣泛的趨勢,。
大算力自動駕駛芯片
走向巔峰對決
自動駕駛領(lǐng)域是芯片與AI技術(shù)交融和迭代的關(guān)鍵領(lǐng)域。
從神經(jīng)網(wǎng)絡(luò)計算推動自動駕駛大行其道開始,,到走向高階的輔助駕駛感知方案,,隨著自動駕駛級別的提升,所需要的算力幾乎是指數(shù)級爆炸式的增長,,從L2,、L3、L4走向L5,,每向上走一級至少有10倍以上算力需求的提升,,大規(guī)模并行化的AI計算,使得大算力的計算平臺成為了產(chǎn)業(yè)必須,,在提升有效算力的道路上似乎永無止境,。
Gartner數(shù)據(jù)顯示,預計到2025年,,全球汽車AI芯片市場將以31%的年復合增速飆升至236億美元,。其中,中國汽車AI芯片的市場將達到68億美元,,2030年為124億美元,,年復合增長率預計可達28.14%。
暴增的算力需求下,,主機廠紛紛推動“硬件預埋”概念,。走向L4級別自動駕駛甚至L5級無人駕駛究竟需要多大算力才夠?目前業(yè)界并沒有定論,,但幾千TOPS的有效算力支撐被認為是需要的,。
國內(nèi)市場方面,地平線征程5已經(jīng)成為國內(nèi)首款實現(xiàn)前裝量產(chǎn)的百TOPS大算力AI芯片,,這款芯片對于地平線自身,、以及我國大算力芯片的發(fā)展都具有重要意義。如果把自動駕駛大算力芯片的競逐比喻為世界杯,,地平線征程5與英偉達算是率先進入百TOPS芯片前裝量產(chǎn)的階段,,相當于“提前鎖定了決賽席位”。
不過今年10月,,英偉達推出的芯片NVIDIA Drive Thor,,直接把標桿又拉高了一個級別,這款超級芯片可實現(xiàn)最高 2000TOPS AI 算力以及 2000 TFLOPS 浮點算力,。據(jù)官方介紹,,NVIDIA Drive Thor是第一個使用集成推理Transformer引擎的自動駕駛汽車平臺,,借助Transformer引擎,它可將 Transformer 深度神經(jīng)網(wǎng)絡(luò)的推理性能提升9倍,,這對于支持與自動駕駛相關(guān)的,、龐大且復雜的AI工作負載至關(guān)重要。
在通往自動駕駛的路上,,Drive Thor肯定不會是AI芯片終結(jié)者,,不過它在2022年出現(xiàn)的意義在于:第一,將智能汽車帶到中央計算模式,。此前業(yè)界對于智能汽車芯片的設(shè)計思路基本上是自動駕駛芯片負責自動駕駛,,座艙芯片負責車載娛樂,而未來融合是趨勢,,Drive Thor單芯片艙駕一體的設(shè)計,,或?qū)⒓铀僦醒胗嬎銜r代的到來。第二,,它將汽車芯片算力直接推向了2000TOPS標準,。提升計算效率是汽車智能化發(fā)展的關(guān)鍵一環(huán),因為實現(xiàn)更高級別的自動駕駛,、實現(xiàn)更智能的人機交互座艙體驗都需要更強的算力,。按照iHS Markit預計,2024年座艙NPU算力需求將是2021年的十倍,,CPU算力需求是2021年的3.5倍,,這都要求汽車芯片的算力必須進一步拉高。
在汽車AI芯片方面,,存算一體的大算力AI芯片也在發(fā)力,。這方面的從業(yè)者認為,相比于傳統(tǒng)的馮·諾依曼架構(gòu),,用存算一體技術(shù)做大算力AI芯片,,對先進制程依賴度不是很強,可以用較低的制程實現(xiàn)較大算力,,并且由于數(shù)據(jù)計算和數(shù)據(jù)存儲深度融合,避免了大部分數(shù)據(jù)的無效搬運,,可以兼顧成本和能效,,因此非常適合智能駕駛和自動駕駛應用場景。
AI大模型
推動算力集群效能優(yōu)化
“超級鸚鵡”ChatGPT和AIGC成為年度最大黑馬,。
最近爆火的OpenAI旗下的對話模型ChatGPT,,能夠理解用戶需求創(chuàng)造內(nèi)容、協(xié)助代碼編寫,、能夠針對用戶的追問在后續(xù)對話中進行修正或補充,。相較于蘋果 Siri、微軟小冰等,ChatGPT除了邏輯嚴密的創(chuàng)造能力之外,,還具有記憶能力,,在連續(xù)的對話中無需用戶提供重復信息,語言組織和表達能力也更接近人類水平,,使對話更自然流暢,。
同樣火熱的還有AIGC(Generative AI,生成式AI),,一系列初創(chuàng)公司融資不斷,,并且在實際應用中也體現(xiàn)出了較高的水準。百度AI十分鐘內(nèi)復原了《富春山居圖》殘卷,,浪潮“源”支持的“金陵詩會”,,使用者可一鍵創(chuàng)作韻味悠長的詩句……而除了自主生成文本、圖像,,AI自主生成音頻,、視頻、虛擬場景等也在成為熱潮,。這些都推動了生成式AI的蓬勃發(fā)展,,打造了新的數(shù)字內(nèi)容生成與交互形態(tài)。
Gartner將“生成式AI”列為2022年五大影響力技術(shù)之一,,預測到2025年,,生成式AI所創(chuàng)造的數(shù)據(jù)可占到所有已生產(chǎn)數(shù)據(jù)的10%。
業(yè)內(nèi)認為,,ChatGPT和AIGC爆火,,代表著AI大模型進入一個新的技術(shù)范式,同時也是第三波AI浪潮經(jīng)過十幾年發(fā)展之后,,到達了一個非常重要的拐點,。
它們代表著從以前的“大煉模型”(各自研發(fā)專用小模型),到“煉大模型”(研發(fā)超大規(guī)模通用智能模型)的一個范式轉(zhuǎn)變,,其意義在于:通過這種比較先進的算法架構(gòu),,盡可能多的數(shù)據(jù)匯集大量算力,通過集約化的訓練模式,,從而供大量用戶使用,。
AI發(fā)展至今,大模型的出現(xiàn)可以說是生逢其時,,它將碎片化的AI應用開發(fā)轉(zhuǎn)向集中式開發(fā),。一方面,AI大模型具備很好的泛化能力,,一個模型可以支撐各類不同應用,,有效緩解碎片化開發(fā)反復建模的困境,;另一方面,圍繞AI大模型構(gòu)建的算法基礎(chǔ)設(shè)施,,比如開放的API,、開源的應用代碼等,使開發(fā)者無需關(guān)心底層技術(shù),,設(shè)置無需配置編程環(huán)境,,就可以直接將應用構(gòu)建于AI大模型的能力之上,在降低開發(fā)門檻的同時,,讓開發(fā)人員將更多精力聚焦在核心業(yè)務(wù)邏輯上,。
從算力的角度來看,挑戰(zhàn)不可謂不大,。因為訓練大模型所需要的算力是海量的,,成本是高昂的,這就需要發(fā)揮AI算力集群的整體效能,,讓AI算力能夠“算”盡其用,,從而降低大模型訓練的成本。當前,,基于液冷等技術(shù)的算力產(chǎn)品,,將軟件層面(模型和框架)與硬件基礎(chǔ)設(shè)施(計算、存儲,、網(wǎng)絡(luò))進行協(xié)同優(yōu)化的方案,,都是業(yè)界較為推崇的方式。一方面能在高算力集群上能實現(xiàn)更好的算力利用率,,另一方面也能降低電力消耗,,降低整體成本。
可以說,,AI大模型的投入是AI技術(shù)邁向新臺階的必經(jīng)之路,,是解決產(chǎn)業(yè)碎片化的一種方式。AI大模型的發(fā)展與商業(yè)落地,,有望重塑AI算力與AI應用的市場格局,。隨著大模型的數(shù)量走向集約,有利于AI芯片進行更有針對性的設(shè)計開發(fā)與優(yōu)化,,這是AI算力企業(yè)生態(tài)重建的新機會,,也是國產(chǎn)AI芯片在國際巨頭林立的市場中突圍的機會。
寫在最后
不破不立,,破而后立。大破大立,,曉喻新生,。
寫在AI芯片踏實走過的2022年,。
更多信息可以來這里獲取==>>電子技術(shù)應用-AET<<