內存技術作為計算機系統(tǒng)的核心組成部分,,其性能的提升對于整體計算能力的提升至關重要。在這個背景下,,高帶寬內存(HBM)以其卓越的性能表現,,正逐漸在內存技術領域嶄露頭角,成為推動計算領域進入全新時代的關鍵力量,。
相較于傳統(tǒng)的動態(tài)隨機存取內存(DRAM),,HBM的性能優(yōu)勢顯而易見。
遠遠超越DDR
DDR 是一種常見的計算機內存類型,,最早是為了提高內存?zhèn)鬏斔俾识O計的,。它采用了雙倍數據傳輸技術,即在每個時鐘周期內可以傳輸兩次數據,,從而提高了數據傳輸速率,。
目前最常見的DDR版本是 DDR4、DDR5,,但在過去還有 DDR3,、DDR2、DDR等版本,。每一代DDR版本都有不同的數據傳輸速率和性能,。
DDR內存通常用于計算機的系統(tǒng)內存,用于存儲操作系統(tǒng)和正在運行的應用程序等數據。
HBM是一種高帶寬內存技術,,專注于提供更高的內存帶寬,,尤其適用于高性能計算和圖形處理領域。HBM的一個顯著特點是,,它使用了堆疊技術,,將多個DRAM芯片垂直堆疊在一起,從而大大增加了數據通路,,提高了內存的帶寬,。
因此HBM 具有可擴展更大容量的特性。不僅HBM 的單層 DRAM 芯片容量可擴展,,HBM 還可以通過 4 層,、8 層以至 12 層堆疊的 DRAM 芯片,此外HBM可以通過 SiP 集成多個 HBM 疊層 DRAM 芯片等方法,,實現更大的內存容量,。
HBM內存通常用于高性能顯卡、GPU加速器以及需要大量數據傳輸的高性能計算應用中,。
從功耗角度來看,,由于采用了 TSV 和微凸塊技術,DRAM 裸片與處理器間實現了較短的信號傳輸路徑以及較低的單引腳 I/O 速度和 I/O 電壓,,使 HBM 具備更好的內存功耗能效特性,。以 DDR3 存儲器歸一化單引腳 I/O 帶寬功耗比為基準,HBM2 的 I/O 功耗比明顯低于 DDR3,、DDR4 和 GDDR5 存儲器,,相對于 GDDR5 存儲器,HBM2 的單引腳 I/O 帶寬功耗比數值降低 42%,。
在系統(tǒng)集成方面,,HBM 將原本在 PCB 板上的 DDR 內存顆粒和 CPU 芯片全部集成到 SiP 里,因此 HBM 在節(jié)省產品空間方面也更具優(yōu)勢,。相對于 GDDR5 存儲器,,HBM2 節(jié)省了 94% 的芯片面積。
三大原廠的研發(fā)歷程
目前的HBM市場主要以SK海力士,、三星和美光三家公司為主,。
2014 年,SK海力士與 AMD 聯合開發(fā)了全球首款硅通孔HBM,,至今已經迭代升級了4代HBM產品,,性能和容量持續(xù)提升。2020年SK海力士宣布成功研發(fā)新一代HBM2E,;2021年開發(fā)出全球第一款HBM3,;2022年HBM3芯片供貨英偉達,。2023年8月,SK海力士推出HBM3E,,11月英偉達宣布H200將搭載HBM3E,。
可以說從HBM1、HBM2E,、HBM3,、HBM3E,SK海力士持續(xù)領先,。2022年SK海力士占據HBM市場約50%的份額,,三星占比40%,美光占比10%,。
在很長一段時間內,,SK海力士都是英偉達HBM的獨家供應商。2023年SK海力士基本壟斷了HBM3供應,,今年其HBM3與HBM3E的訂單也已售罄,。
三星是在2016年,開始宣布量產4GB/8GB HBM2 DRAM,;2018年,,宣布量產第二代8GB HBM2;2020年,,推出16GB HBM2E產品,;2021年,,三星開發(fā)出具有AI處理能力的HBM-PIM,;雖然三星的路線圖顯示2022年HBM3技術已經量產,但實際上三星的HBM3在2023年底才正式完成驗證,,這意味著在大量生產之前,,市場還是由SK 海力士壟斷。
再看美光,,2020年,,美光宣布將開始提供HBM2內存/顯存;2021年,,HBM2E產品上市,。為了改善自己在HBM市場中的被動地位,美光選擇了直接跳過第四代HBM即HBM3,,直接升級到了第五代,,即HBM3E。隨后在2023年9月,,美光宣布推出HBM3 Gen2(即HBM3E),,后續(xù)表示計劃于 2024 年初開始大批量發(fā)貨 HBM3 Gen2 內存,同時透露英偉達是主要客戶之一。
HBM2e過渡到HBM3e
HBM的概念的起飛與AIGC的火爆有直接關系,。
AI大模型的興起催生了海量算力需求,,而數據處理量和傳輸速率大幅提升使得AI服務器對芯片內存容量和傳輸帶寬提出更高要求。HBM具備高帶寬,、高容量,、低延時和低功耗優(yōu)勢,目前已逐步成為AI服務器中GPU的搭載標配,。
目前,,HBM產品以HBM(第一代)、HBM2(第二代),、HBM2E(第三代),、HBM3(第四代)、HBM3E(第五代)的順序開發(fā),,最新的HBM3E是HBM3的擴展版本,。
來源:山西證券
HBM每一次更新迭代都會伴隨著處理速度的提高。引腳(Pin)數據傳輸速率為1Gbps的第 一代HBM,,發(fā)展到其第五代產品HBM3E,,速率提高到了8Gbps,即每秒可以處理1.225TB的數據,。也就是說,,下載一部長達163分鐘的全高清(Full-HD)電影(1TB)只需不到1秒鐘的時間。
當然,,存儲器的容量也在不斷加大,。HBM2E的最大容量為16GB,目前,,三星正在利用EUV光刻機來制造24GB容量的HBM3芯片,,此外8層、12層堆疊可在HBM3E上實現36GB(業(yè)界最大)的容量,,比HBM3高出50%,。
此前SK海力士、美光均已宣布推出HBM3E芯片,,皆可實現超過1TB/s的帶寬,。
根據TrendForce集邦咨詢調查顯示,2023年HBM市場主流為HBM2e,,包含NVIDIA A100/A800,、AMD MI200以及多數CSPs自研加速芯片皆以此規(guī)格設計。同時,,為順應AI加速器芯片需求演進,,各原廠計劃于2024年推出新產品HBM3e,,預期HBM3與HBM3e將成為明年市場主流。
HBM3e市場徹底被引爆
SK海力士無疑是這波內存熱潮中的最大受益者,,截至2023年12月31日,,SK海力士在2023財年和第四季度的營收取得了顯著增長。特別是其主力產品DDR5 DRAM和HBM3,,在這一年的收入較去年上漲了4倍以上,。
英偉達和AMD的下一代人工智能GPU預計將主要搭載HBM3內存。例如,,H100是第一款支持PCIe 5.0標準的GPU,,也是第一款采用HBM3的GPU,最多支持六顆HBM3,,帶寬為3TB/s,,是A100采用HBM2E的1.5倍,默認顯存容量為80GB,。
2023年11月英偉達發(fā)布了新一代AI GPU芯片H200,,以及搭載這款GPU的AI服務器平臺HGX H200等產品。這款GPU是H100的升級款,,依舊采用Hopper架構,、臺積電4nm制程工藝,根據英偉達官網,,H200的GPU芯片沒有升級,,核心數、頻率沒有變化,,主要的升級便是首次搭載HBM3e顯存,,并且容量從80GB提升至141GB。
得益于新升級的HBM3e芯片,,H200的顯存帶寬可達4.8TB/s,,比H100的3.35TB/s提升了43%。不過這遠沒有達到HBM3e的上限,,海外分析人士稱英偉達有意降低HBM3e的速度,以追求穩(wěn)定,。如果與傳統(tǒng)x86服務器相比,,H200的內存性能最高可達110倍。
由于美光,、SK海力士等公司的HBM3e芯片需等到2024年才會發(fā)貨,,因此英偉達表示H200產品預計將在2024年第二季度正式開售。
AMD 的 MI300 也搭配 HBM3,,其中,,MI300A 容量與前一代相同為 128GB,,更高端 MI300X 則達 192GB,提升了 50%,。AMD稱,,MI300X提供的HBM密度最高是英偉達AI芯片H100的2.4倍,其HBM帶寬最高是H100的1.6倍,。這意味著,,AMD的芯片可以運行比英偉達芯片更大的模型。
與此同時,,在2023年隨著AI GPU 以及與AI相關的各類需求激增,,HBM價格也持續(xù)上漲。市場研究機構Yolo Group 報告顯示,,2023 年期間HBM 內存供需鏈發(fā)生了重大變化,,生產水平和采用率同時大幅提高,使得 HBM 成為比人工智能熱潮之前更有價值的資源,,2023年 HBM 芯片的平均售價是傳統(tǒng) DRAM 內存芯片的五倍,。
在HBM盛行的當下,沒有一家存儲廠商能夠忍住不分一杯羹,。
三大原廠為之“瘋狂”
技術升級
三大原廠的研究進展
SK海力士在SEMICON Korea 2024上發(fā)布了一項重要公告,,公布了其雄心勃勃的高帶寬存儲器路線圖。該公司副總裁Kim Chun-hwan透露,,計劃在2024上半年開始量產先進的HBM3E,,并強調向客戶交付8層堆疊樣品。
HBM3E是SK海力士產品線的最新產品,,可滿足日益增長的數據帶寬需求,,在6堆棧配置中,每堆??商峁?.2 TB/s和驚人的7.2 TB/s通信帶寬,。Kim Chun-hwan將這種進步的緊迫性歸因于生成式人工智能的迅速崛起,預計將見證驚人的35%的復合年增長率(CAGR),。然而,,他警告說,在不斷升級的客戶期望的推動下,,半導體行業(yè)正在面臨“激烈的生存競爭”,。
隨著制程工藝節(jié)點的縮小并接近其極限,半導體行業(yè)越來越關注下一代存儲器架構和工藝,,以釋放更高的性能,。SK海力士已經啟動了HBM4的開發(fā),計劃于2025年提供樣品,,并于次年量產,。
根據美光的信息,,與前幾代HBM相比,HBM4將采用更廣泛的2048位接口,。導致每個堆棧的理論峰值內存帶寬超過1.5 TB/s,。為了實現這些非凡的帶寬,在保持合理功耗的同時,,HBM4的目標是大約6GT/s的數據傳輸速率,。這種更寬的接口和更快的速度將使HBM4能夠突破內存帶寬的界限,滿足日益增長的高性能計算和AI工作負載需求,。
三星是半導體行業(yè)的主要參與者,該公司也有HBM4的發(fā)布時間表,,計劃于2025年提供樣品,,并于2026年量產,。三星高管Jaejune Kim透露,該公司的HBM產量的一半以上已經由專業(yè)產品組成,。定制HBM解決方案的趨勢預計將加劇,。通過邏輯集成,量身定制的選項對于滿足個性化客戶需求至關重要,,從而鞏固了市場地位,。
隨著HBM3E的發(fā)布和HBM4的準備,SK海力士和三星正在為未來的挑戰(zhàn)做準備,,旨在保持其在HBM技術前沿的地位,。不僅如此,全球前三大存儲芯片制造商正將更多產能轉移至生產HBM,,但由于調整產能需要時間,很難迅速增加HBM產量,,預計未來兩年HBM供應仍將緊張,。
擴產情況
再看三大原廠的擴產情況。據悉,,SK海力士將擴大其高帶寬內存生產設施投資,以應對高性能AI產品需求的增加,。
去年6月有媒體報道稱,SK海力士正在準備投資后段工藝設備,,將擴建封裝HBM3的利川工廠,預計到今年年末,,該廠后段工藝設備規(guī)模將增加近一倍,。
此外,,SK海力士還將在美國印第安納州建造一座最先進的制造工廠,,據兩位接受英國《金融時報》采訪的消息人士透露,,SK海力士將在這家工廠生產 HBM 堆棧,,這些堆棧將用于臺積電生產的 Nvidia GPU,,SK 集團董事長表示,該工廠預計耗資 220 億美元,。
三星電子和 SK 海力士之間的競爭正在升溫。三星電子從去年第四季度開始擴大第四代HBM即HBM3的供應,,目前正進入一個過渡期,。負責三星美國半導體業(yè)務的執(zhí)行副總裁 Han Jin-man 在今年1月表示,,公司對包括 HBM 系列在內的大容量存儲芯片寄予厚望,,希望它能引領快速增長的人工智能芯片領域。他在CES 2024的媒體見面會上對記者說,,“我們今年的 HBM 芯片產量將比去年提高 2.5 倍,明年還將繼續(xù)提高 2 倍,?!?nbsp;
三星官方還透露,,公司計劃在今年第四季度之前,,將 HBM 的最高產量提高到每月 15 萬至 17 萬件,,以此來爭奪2024年的HBM市場。此前三星電子斥資105億韓元收購了三星顯示位于韓國天安市的工廠和設備,,以擴大HBM產能,同時還計劃投資7000億至1萬億韓元新建封裝線,。
為了縮小差距,美光對其下一代產品 HBM3E 下了很大的賭注,,美光首席執(zhí)行官 Sanjay Mehrotra 表示:“我們正處于為英偉達下一代 AI 加速器提供 HBM3E 的驗證的最后階段?!逼溆媱澯?2024 年初開始大批量發(fā)貨 HBM3E 內存,同時強調其新產品受到了整個行業(yè)的極大興趣,。據悉,美光科技位于中國臺灣地區(qū)的臺中四廠已于2023年11月初正式啟用,。美光表示,臺中四廠將整合先進探測與封裝測試功能,,量產HBM3E及其他產品,,從而滿足人工智能,、數據中心,、邊緣計算及云端等各類應用日益增長的需求。該公司計劃于2024年初開始大量出貨HBM3E,。
值得注意的是高階HBM的競爭才剛剛開始,,雖然目前HBM產品占整體存儲的出貨量仍然非常小,,長期來看,隨著消費電子產品向AI化發(fā)展,,對于高算力、高存儲,、低能耗將是主要訴求方向,,鑒于此預計HBM也將成為未來存儲廠商的技術發(fā)展方向,。