英特爾,、谷歌,、微軟、Meta等八家科技巨頭正在建立一個新的行業(yè)小組,,即超加速器鏈接(UALink)推廣小組,,以指導數據中心內連接AI加速器芯片的組件的發(fā)展。
UALink推廣小組周四宣布成立,,其成員還包括AMD,、惠普企業(yè)、博通和思科,。該小組提出了一個新的行業(yè)標準,,用于連接服務器中越來越多的AI加速器芯片。廣義上講,,AI加速器是從GPU到為加速AI模型的訓練,、微調和運行而定制設計的解決方案的芯片。
AMD數據中心解決方案總經理Forrest Norrod在周三的簡報中對記者表示:“行業(yè)需要一個可以快速推進的開放標準,,在開放的[格式]中,,允許多家公司為整個生態(tài)系統(tǒng)增加價值?!薄靶袠I(yè)需要一個標準,,允許創(chuàng)新以不受任何單一公司束縛的快速步伐進行?!?/p>
提議的標準的第一個版本,,UALink 1.0,將在單個計算“pod”中連接多達1024個AI加速器——僅限GPU,。(該小組將pod定義為服務器中的一個或幾個機架,。)UALink 1.0基于“開放標準”,,包括AMD的無限架構,,將允許AI加速器附加的內存之間進行直接加載和存儲,并且與現(xiàn)有的互連規(guī)格相比,,總體上將提高速度并降低數據傳輸延遲,。
該小組表示,將在第三季度創(chuàng)建一個聯(lián)盟,,UALink聯(lián)盟,,以監(jiān)督UALink規(guī)范的未來發(fā)展,。UALink 1.0將在同期向加入聯(lián)盟的公司提供,更高帶寬的更新規(guī)范UALink 1.1,,計劃在2024年第四季度推出,。
UALink的首批產品將在“未來幾年”推出,Norrod說,。
明顯缺席該小組成員名單的是Nvidia,,它是迄今為止最大的AI加速器生產商,估計占有80%到95%的市場份額,。Nvidia拒絕對此發(fā)表評論,。但不難看出為什么這家芯片制造商不熱衷于支持基于競爭對手技術的規(guī)范。
首先,,Nvidia為其數據中心服務器內的GPU提供了自己的專有互連技術,。該公司可能不太愿意支持基于競爭對手技術的標準。
然后是Nvidia從巨大的實力和影響力位置運營的事實,。
在Nvidia最近一個財季(2025年第一季度)中,,包括其AI芯片銷售在內的數據中心銷售額比去年同期增長了400%以上。如果Nvidia繼續(xù)目前的發(fā)展軌跡,,它將在今年某個時候超過蘋果,,成為世界上最有價值的公司。
因此,,簡單來說,,如果Nvidia不想參與,它就不必參與,。
至于亞馬遜網絡服務(AWS),,這是唯一沒有為UALink做出貢獻的公共云巨頭,它可能處于“觀望”模式,,因為它正在削減其各種內部加速器硬件努力,。也可能是AWS,憑借對云服務市場的控制,,沒有看到反對Nvidia的戰(zhàn)略意義,,Nvidia為其客戶提供了大部分GPU。
AWS沒有回應TechCrunch的評論請求,。
事實上,,UALink的最大受益者——除了AMD和英特爾——似乎是微軟、Meta和谷歌,,它們已經花費了數十億美元購買Nvidia GPU來驅動它們的云并訓練它們不斷增長的AI模型,。所有人都希望擺脫一個他們視為在AI硬件生態(tài)系統(tǒng)中過于主導的供應商。
谷歌擁有用于訓練和運行AI模型的定制芯片,TPU和Axion,。亞馬遜擁有幾個AI芯片家族,。微軟去年加入了Maia和Cobalt的競爭。Meta正在完善自己的加速器系列,。
與此同時,,微軟及其密切合作伙伴OpenAI據報道計劃至少花費1000億美元用于一臺超級計算機,用于訓練AI模型,,該計算機將配備未來的Cobalt和Maia芯片,。這些芯片將需要一些東西將它們連接起來——也許它將是UALink。