除了大量預(yù)定臺(tái)積電產(chǎn)能外,,英偉達(dá)還斥巨資拿下了HBM3內(nèi)存的供應(yīng)合同,。消息人士稱,該公司從美光和 SK海力士那里預(yù)購了700億至1萬億韓元的HBM3內(nèi)存,。雖然沒有關(guān)于這些款項(xiàng)具體用途的信息,但業(yè)界普遍認(rèn)為其目的在于確保2024年HBM供應(yīng)穩(wěn)定,。
此外,,還有業(yè)內(nèi)人士透露,三星電子,、SK海力士,、美光三大存儲(chǔ)公司明年的HBM產(chǎn)能已完全售罄。業(yè)界認(rèn)為,,由于AI行業(yè)半導(dǎo)體公司之間的激烈競(jìng)爭(zhēng),,HBM市場(chǎng)預(yù)計(jì)將在未來兩年內(nèi)實(shí)現(xiàn)快速增長(zhǎng)。
根據(jù)現(xiàn)有爆料信息,,英偉達(dá)正準(zhǔn)備推出兩款配備HBM3E內(nèi)存的產(chǎn)品:配備141GB HBM3E 的H200 GPU以及GH200超級(jí)芯片,,因此英偉達(dá)需要大量HBM內(nèi)存。
H200是目前世界上最強(qiáng)的AI芯片,,也是世界上首款采用HBM3e的GPU,,基于NVIDIAHopper架構(gòu)打造,,與H100相互兼容,可提供4.8 TB/s速度,。
在人工智能方面,,英偉達(dá)表示,HGX H200在Llama 2(700 億參數(shù) LLM)上的推理速度比H100快了一倍,。HGX H200將以4路和8路的配置提供,,與H100系統(tǒng)中的軟件和硬件兼容。它將適用于每一種類型的數(shù)據(jù)中心(本地,、云,、混合云和邊緣),并由 Amazon Web Services,、Google Cloud,、Microsoft Azure 和 Oracle Cloud Infrastructure 等部署,將于 2024 年第二季度推出,。