除了大量預(yù)定臺(tái)積電產(chǎn)能外,,英偉達(dá)還斥巨資拿下了HBM3內(nèi)存的供應(yīng)合同,。消息人士稱,該公司從美光和 SK海力士那里預(yù)購(gòu)了700億至1萬(wàn)億韓元的HBM3內(nèi)存,。雖然沒(méi)有關(guān)于這些款項(xiàng)具體用途的信息,,但業(yè)界普遍認(rèn)為其目的在于確保2024年HBM供應(yīng)穩(wěn)定。
此外,,還有業(yè)內(nèi)人士透露,,三星電子、SK海力士,、美光三大存儲(chǔ)公司明年的HBM產(chǎn)能已完全售罄,。業(yè)界認(rèn)為,由于AI行業(yè)半導(dǎo)體公司之間的激烈競(jìng)爭(zhēng),,HBM市場(chǎng)預(yù)計(jì)將在未來(lái)兩年內(nèi)實(shí)現(xiàn)快速增長(zhǎng),。
根據(jù)現(xiàn)有爆料信息,英偉達(dá)正準(zhǔn)備推出兩款配備HBM3E內(nèi)存的產(chǎn)品:配備141GB HBM3E 的H200 GPU以及GH200超級(jí)芯片,,因此英偉達(dá)需要大量HBM內(nèi)存,。
H200是目前世界上最強(qiáng)的AI芯片,也是世界上首款采用HBM3e的GPU,,基于NVIDIAHopper架構(gòu)打造,,與H100相互兼容,可提供4.8 TB/s速度,。
在人工智能方面,,英偉達(dá)表示,HGX H200在Llama 2(700 億參數(shù) LLM)上的推理速度比H100快了一倍。HGX H200將以4路和8路的配置提供,,與H100系統(tǒng)中的軟件和硬件兼容,。它將適用于每一種類(lèi)型的數(shù)據(jù)中心(本地、云,、混合云和邊緣),,并由 Amazon Web Services、Google Cloud,、Microsoft Azure 和 Oracle Cloud Infrastructure 等部署,,將于 2024 年第二季度推出。