《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 通信與網(wǎng)絡(luò) > 業(yè)界動態(tài) > 騰訊發(fā)布高性能計算網(wǎng)絡(luò)星脈網(wǎng)絡(luò)2.0

騰訊發(fā)布高性能計算網(wǎng)絡(luò)星脈網(wǎng)絡(luò)2.0

大模型訓練效率相比上代提升20%
2024-07-02
來源:IT之家

7 月 2 日消息,騰訊昨日發(fā)布其自研星脈網(wǎng)絡(luò) 2.0 版本,,升級后的星脈網(wǎng)絡(luò)支持單集群 10 萬卡組網(wǎng),網(wǎng)絡(luò)通信效率比上一代提升 60%,,大模型訓練效率提升 20%,,故障定位從天級降低至分鐘級,。

騰訊自研交換機從 25.6T 升級到 51.2T,容量提升一倍,;自研硅光模塊從 200G 升級到 400G,,速率提升一倍;搭載自研算力網(wǎng)卡,;整機通信帶寬 3.2T,,為業(yè)界最高。

騰訊自研全新通信協(xié)議 TiTa2.0 的部署位置從交換機轉(zhuǎn)移到了網(wǎng)卡上,,擁塞算法也從被動擁塞算法升級為主動擁塞控制算法,,將星脈網(wǎng)絡(luò)的通信效率提升 30%,讓大模型的訓練效率提升 10%,。

騰訊全新高性能集合通信庫 TCCL2.0 采用 NVLINK+NET 異構(gòu)并行通信,,實現(xiàn)數(shù)據(jù)的并行傳輸。Auto-Tune Network Expert 自適應(yīng)算法可以根據(jù)機型,、網(wǎng)絡(luò)規(guī)模,、模型算法等差異,自動調(diào)整數(shù)據(jù)包分割大小,、匹配算法等參數(shù),。星脈網(wǎng)絡(luò)通信性能提升 30%,讓大模型的訓練效率再提升 10%,。

0.jpg

▲ 數(shù)據(jù)的并行傳輸(騰訊云)

TiTa 與 TCCL 升級帶來的效果疊加,,讓星脈網(wǎng)絡(luò)的通信效率共提升 60%,大模型訓練效率共提升 20%,。

Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點,。轉(zhuǎn)載的所有的文章,、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者,。如涉及作品內(nèi)容、版權(quán)和其它問題,,請及時通過電子郵件或電話通知我們,,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失,。聯(lián)系電話:010-82306118,;郵箱:[email protected],。