3 月 28 日消息,,據(jù)日本經(jīng)濟(jì)新聞今日?qǐng)?bào)道,,英偉達(dá)的尖端圖像處理半導(dǎo)體(GPU)H200 現(xiàn)已開(kāi)始供貨。H200 為面向 AI 領(lǐng)域的半導(dǎo)體,,性能超過(guò)當(dāng)前主打的 H100,。
根據(jù)英偉達(dá)方面公布的性能評(píng)測(cè)結(jié)果,,以 Meta 公司旗下大語(yǔ)言模型 Llama 2 處理速度為例,H200 相比于 H100,,生成式 AI 導(dǎo)出答案的處理速度最高提高了 45%,。
市場(chǎng)調(diào)研機(jī)構(gòu) Omdia 曾表示,2022 年英偉達(dá)在 AI 半導(dǎo)體市場(chǎng)約占 8 成的份額,,與此同時(shí) AMD 等競(jìng)爭(zhēng)對(duì)手也在開(kāi)發(fā)對(duì)抗英偉達(dá)的產(chǎn)品,,競(jìng)爭(zhēng)愈演愈烈。
英偉達(dá)當(dāng)?shù)貢r(shí)間 3 月 18 日在開(kāi)發(fā)者大會(huì)上宣布,,年內(nèi)將推出新一代 AI 半導(dǎo)體“B200”,,B200 和 CPU(中央運(yùn)算處理裝置)組合的新產(chǎn)品用于最新的 LLM 上?!白顝?qiáng) AI 加速卡”GB200 包含了兩個(gè) B200 Blackwell GPU 和一個(gè)基于 Arm 的 Grace CPU ,,推理大語(yǔ)言模型性能比 H100 提升 30 倍,成本和能耗降至 25 分之一,。
GB200 采用新一代 AI 圖形處理器架構(gòu) Blackwell,,黃仁勛在 GTC 大會(huì)上表示:“Hopper 固然已經(jīng)非常出色了,但我們需要更強(qiáng)大的 GPU”,。
據(jù)IT之家此前報(bào)道,,英偉達(dá) H200 于去年 11 月發(fā)布,其為基于英偉達(dá)的“Hopper”架構(gòu)的 HGX H200 GPU,,是 H100 GPU 的繼任者,,也是該公司第一款使用 HBM3e 內(nèi)存的芯片,這種內(nèi)存速度更快,,容量更大,,因此更適合大型語(yǔ)言模型,。較前任霸主 H100,H200 的性能直接提升了 60% 到 90%,。英偉達(dá)稱:“借助 HBM3e,,英偉達(dá) H200 以每秒 4.8 TB 的速度提供 141GB 的內(nèi)存,與 A100 相比,,容量幾乎是其兩倍,,帶寬增加了 2.4 倍?!?/p>