2023年,,隨著以大語言模型為代表的人工智能市場持續(xù)火爆,,我們看到了人工智能成為了半導(dǎo)體行業(yè)的最大推動力,,也見證了Nvidia驚人的銷售業(yè)績以及其市值創(chuàng)下新高,。隨著新年的到來,,我們也對2024年人工智能芯片做一個展望,。
01
市場需求:人工智能仍將繼續(xù)火熱
從市場需求側(cè)來看,,我們認(rèn)為人工智能在2024年仍然將繼續(xù)火熱,這也將繼續(xù)推動相關(guān)的芯片行業(yè)保持良好的態(tài)勢,。然而,,與2023年不同的是,我們認(rèn)為在2024年,,人工智能市場的需求會同時從云端慢慢擴(kuò)展到終端,,這也將驅(qū)動相應(yīng)的芯片市場發(fā)展。
首先,,從云端需求來看,,大語言模型仍然將是主要的增長點(diǎn)。同時,,圖像生成類模型也會保持快速增長的勢頭,。具體來說,,大語言模型仍然是各大科技公司競相研發(fā)的核心技術(shù),包括OpenAI,,微軟,,谷歌,華為,,阿里巴巴,,百度等中外科技公司都在大力研發(fā)下一代的大語言模型,而包括中國移動等傳統(tǒng)行業(yè)的公司也在入局大語言模型領(lǐng)域,,同時還有大量的初創(chuàng)公司在依靠風(fēng)險(xiǎn)投資的支持也在大力開發(fā)大語言模型,。大語言模型的百家爭鳴時代才剛剛開始并且遠(yuǎn)遠(yuǎn)沒有落下帷幕,在這樣的群雄逐鹿的時間節(jié)點(diǎn),,預(yù)計(jì)對于芯片的需求也會快速增長,。大語言模型的特點(diǎn)是需要海量的數(shù)據(jù)和訓(xùn)練芯片資源,而且同時由于格局尚未塵埃落定有大量的公司在研發(fā)新的模型,,因此總體來說訓(xùn)練芯片的需求會非常大,。
而隨著云端人工智能交互進(jìn)入多模態(tài)時代,聊天機(jī)器人已經(jīng)不僅僅可以用文字回答,,而且還可以完成看圖說話以及圖像甚至視頻生成等任務(wù),,因此我們認(rèn)為,圖像生成類的模型,,以及圖像和語言結(jié)合的多模態(tài)模型也將會成為云端人工智能的一個重要增長點(diǎn),。
除了云端之外,我們認(rèn)為終端(包括手機(jī)和智能車)也將會成為人工智能的新增長點(diǎn),。手機(jī)上的人工智能雖然早已不再新鮮,,但是隨著生成模型的成熟,我們可望看到這類模型落地手機(jī)端并賦能新的用戶體驗(yàn),。手機(jī)端生成類模型又分為兩種,,一種是圖像生成類模型,即以擴(kuò)散模型(diffusion model)為代表的模型,,這類模型可以實(shí)現(xiàn)高質(zhì)量超分辨以及高質(zhì)量修圖,,從而可望給用戶的拍照和照片編輯帶來革命性的變化。另一類應(yīng)用是語言模型——與運(yùn)行在云端的大語言模型(LLM)相對地,,過去幾個月我們看到了小語言模型(SLM)的興起。小語言模型和大語言模型一樣,,都是主要用于語言的理解和生成(或者說,,與人對話);小語言模型在參數(shù)量變少之后,,可以更靈活地應(yīng)用在一些專用的場景中(而不是像大語言模型一樣試圖覆蓋所有場景)并且提供很高的準(zhǔn)確性,,同時還有可能運(yùn)行在終端設(shè)備中,。
從智能車領(lǐng)域,一方面隨著端到端多任務(wù)大模型帶來的革命性性能提升(例如BEVFormer帶來的俯瞰場景識別性能提升,,以及商湯在2023發(fā)布的UniAD帶來的多任務(wù)性能大幅提升)會推動這類模型進(jìn)一步落地并且推動芯片的需求,,另一方面則是來自于語言模型人機(jī)交互這類源自于云端的人工智能應(yīng)用遷移到智能車場景。
因此,,我們預(yù)測,,2024年將會是人工智能持續(xù)火熱的一年,與2023年不同的是除了云端人工智能保持熱門之外,,我們預(yù)計(jì)終端應(yīng)用場景也會成為新的人工智能需求增長點(diǎn),。
02
云端市場格局分析
云端人工智能芯片市場,我們預(yù)計(jì)Nvidia仍然將保持領(lǐng)跑地位,,但是AMD等競爭者預(yù)計(jì)也將獲得更多市場份額,。
首先,如前所述,,云端市場目前主要的需求在于大語言模型和生成式圖像的訓(xùn)練和推理,。由于這些模型對于計(jì)算資源需求非常大,而且訓(xùn)練任務(wù)占的比例很大,,因此給相應(yīng)的芯片設(shè)了一個很高的門檻,。這里的門檻包括了:
芯片算力:為了支持巨大的計(jì)算量,芯片需要有足夠的計(jì)算單元,,內(nèi)存容量和帶寬
分布式計(jì)算支持:對于大模型來說分布式計(jì)算是必須的
軟件兼容性和生態(tài):對于訓(xùn)練來說,,對于模型進(jìn)行反復(fù)快速迭代是一個很強(qiáng)的需求,因此必須有足夠好的生態(tài)來支持不同的模型算符快速迭代
目前而言,,Nvidia在這一個領(lǐng)域仍然是領(lǐng)先,,無論是其芯片和分布式計(jì)算性能,還是軟件生態(tài)兼容性來說,,都是首選,。這也是為什么2023年Nvidia的H100成為了人工智能相關(guān)公司最寶貴的資源,在市場上供不應(yīng)求,。在2024 H2,,Nvidia將會開始出貨H200,相對于H100來說,,H200擁有40%和內(nèi)存帶寬提升以及80%的內(nèi)存容量提升,,因此可望會被人工智能公司爭相購買。
在2024年,,我們預(yù)計(jì)AMD在云端人工智能領(lǐng)域也將更加站穩(wěn)腳跟,,并由此開始慢慢走向更大的市場份額。2023下半年,,AMD發(fā)布了最新的MI300X用于高性能計(jì)算的GPU模組,,該芯片包含大芯片粒(12個處理器/IO芯片粒),,并且相比于H200來說,擁有更高(1.6倍)的FP8算力,,以及更大的內(nèi)存容量和帶寬(1.2倍),。從AMD公布的實(shí)測數(shù)據(jù)來看,MI300X的推理能力大約比H100強(qiáng)20%-40%,,訓(xùn)練性能則和H100持平,。我們認(rèn)為,軟件生態(tài)(包括編譯器性能)將成為決定AMD在云端人工智能市場能否成功的決定性因素,,而這一點(diǎn)預(yù)計(jì)在2024年將會有所改善:OpenAI將在最新發(fā)布的Triton框架中加入對于AMD MI300X的支持,,而各大初創(chuàng)公司的人工智能加速軟件框架也在加強(qiáng)對于AMD GPU的支持。隨著芯片性能和軟件生態(tài)的提升,,以及各大科技公司對于Nvidia GPU一家獨(dú)大地位的擔(dān)憂態(tài)度,,我們預(yù)計(jì)2024年對于AMD的GPU在人工智能市場將會是重要的一年,預(yù)計(jì)將會看到更多客戶的應(yīng)用,。
從供應(yīng)鏈角度,,由于云端人工智能芯片對于HBM3等高帶寬內(nèi)存有著強(qiáng)力的需求,我們認(rèn)為HBM內(nèi)存以及高級封裝(如CoWoS)的產(chǎn)能仍然將會火熱,,這也將推動相應(yīng)半導(dǎo)體企業(yè)擴(kuò)大產(chǎn)能,,以及積極研發(fā)下一代內(nèi)存和高級封裝技術(shù)。從這個角度看,,人工智能應(yīng)用仍然將會是推動半導(dǎo)體新技術(shù)高速發(fā)展的核心動力,。
03
終端市場格局分析
除了云端市場外,我們預(yù)計(jì)人工智能對于終端市場也有更強(qiáng)的需求,,這也將推動人工智能成為終端計(jì)算芯片中越來越重要的差異化元素,。
在手機(jī)端,人工智能的使用頻率將會進(jìn)一步增強(qiáng),,這也會推動芯片加入更多相應(yīng)的算力,,并且將人工智能支持作為SoC的核心亮點(diǎn)。例如高通發(fā)布的Snapdragon 8 Gen 3就以“低于一秒的延遲實(shí)現(xiàn)圖像生成任務(wù)”作為一個重要賣點(diǎn),,估計(jì)這樣的人工智能能力將會深度集成到手機(jī)廠商的操作系統(tǒng)中,。除了高通這樣的第三方芯片公司之外,自研手機(jī)芯片的系統(tǒng)廠商預(yù)計(jì)也會繼續(xù)加碼人工智能,;蘋果雖然在這方面保持低調(diào),,但是預(yù)計(jì)在未來會以各種方式(加大NPU算力,或者是加大軟件支持)的方法來開始賦能更多人工智能在iPhone上的新拍攝用戶體驗(yàn),。vivo在自研ISP芯片領(lǐng)域已經(jīng)有了數(shù)年積累,,而目前生成式人工智能對于拍攝體驗(yàn)的提升恰好和ISP有很強(qiáng)的協(xié)同作用,這也是2023年8月vivo發(fā)布的v3 ISP芯片強(qiáng)調(diào)了生成式人工智能作為一個核心亮點(diǎn)。未來,,預(yù)計(jì)會看到越來越多這樣的芯片強(qiáng)調(diào)人工智能對于用戶體驗(yàn)上的賦能作用。
在智能汽車領(lǐng)域,,Nvidia雖然不如在云端強(qiáng)勢,,但是其Orin系列芯片仍然是各大車廠考慮的標(biāo)準(zhǔn)芯片模組。我們認(rèn)為,,隨著人工智能大模型對于智能駕駛的賦能作用逐漸加強(qiáng),,無論是第三方芯片還是車廠自研的芯片都將會進(jìn)一步強(qiáng)化對于人工智能算力的投入,同時也推動芯片性能的快速提升——最近,,無論是蔚來發(fā)布新自研芯片的算力規(guī)格,,還是特斯拉傳出將使用TSMC 3nm作為下一代芯片的生產(chǎn)工藝,都在提示著我們2024年人工智能將在智能車芯片領(lǐng)域扮演越來越重要的角色,。
04
哪些新技術(shù)值得關(guān)注,?
除了以上討論的芯片之外,有哪些新技術(shù)可望會為人工智能芯片領(lǐng)域帶來新的變化,?
首先,,存內(nèi)計(jì)算和近內(nèi)存計(jì)算/處理技術(shù)可望會得到越來越多的關(guān)注。對于云端人工智能來說,,內(nèi)存訪問開銷一直是一個性能瓶頸,,而隨著大模型的參數(shù)量越來越大,內(nèi)存訪問帶來的開銷也越來越大,。存內(nèi)計(jì)算和近內(nèi)存計(jì)算/處理技術(shù)的主要目的就是為了降低這樣的開銷,,讓一些計(jì)算和處理任務(wù)能夠在內(nèi)存中就完成。在這個領(lǐng)域,,三星的PIM(process in memory)和PNM(process near memory)技術(shù)非常值得我們關(guān)注,,而這些技術(shù)也可望會成為三星未來進(jìn)一步提高自身存儲器技術(shù)差異化競爭力的關(guān)鍵。
對于終端人工智能來說,,智能汽車場景中由于對于延遲有著較強(qiáng)的需求,,因此新技術(shù)有比較多的機(jī)會能產(chǎn)生影響。在云端,,以GPU為代表的加速芯片都是主要基于優(yōu)化吞吐量的考慮,,而不是延遲,因此在智能車領(lǐng)域必須有新的架構(gòu)設(shè)計(jì),。對于車載應(yīng)用來說,,數(shù)據(jù)都是以數(shù)據(jù)流的形式(而不是批量的形式)進(jìn)入處理器,因此人工智能芯片必須能高速低延遲處理這些數(shù)據(jù)流,。另一方面,,大模型正在進(jìn)入智能車應(yīng)用,因此如何在低延遲的情況下支持大模型推理,,將會是智能車芯片中新技術(shù)需要重點(diǎn)突破的方向,。