《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > Cerebras推出全新晶圓級芯片WSE-3

Cerebras推出全新晶圓級芯片WSE-3

臺積電 5nm 制程,,性能翻倍
2024-03-14
來源:快科技

3月14日消息,,Cerebras Systems發(fā)布了他們的第三代晶圓AI加速芯片WSE-3”(Wafer Scale Engine 3),,規(guī)格參數(shù)更加瘋狂,,而且在功耗,、價格不變的前提下性能翻了一番,。

2019年的第一代WSE-1基于臺積電16nm工藝,,面積46225平方毫米,,晶體管1.2萬億個,,擁有40萬個AI核心,、18GB SRAM緩存,支持9PB/s內(nèi)存帶寬,、100Pb/s互連帶寬,,功耗高達15千瓦。

1.jpg

2021年的第二代WSE-2升級臺積電7nm工藝,,面積不變還是46225平方毫米,,晶體管增至2.6萬億個,核心數(shù)增至85萬個,,緩存擴至40GB,,內(nèi)存帶寬20PB/s,互連帶寬220Pb/s,。

2.jpg

如今的第三代WSE-3再次升級為臺積電5nm工藝,,面積沒說但應(yīng)該差不多,畢竟需要一塊晶圓才能造出一顆芯片,,不可能再大太多了,。

晶體管數(shù)量繼續(xù)增加達到驚人的4萬億個,AI核心數(shù)量進一步增加到90萬個,,緩存容量達到44GB,,外部搭配內(nèi)存容量可選1.5TB、12TB,、1200TB,。

乍一看,核心數(shù)量,、緩存容量增加的不多,,但性能實現(xiàn)了飛躍,,峰值A(chǔ)I算力高達125PFlops,也就是每秒12.5億億次浮點計算,,堪比頂級超算,。

3.jpg

它可以訓練相當于GPT-4、Gemini十幾倍的下一代AI大模型,,能在單一邏輯內(nèi)存空間內(nèi)存儲24萬億參數(shù),,無需分區(qū)或者重構(gòu)。

用它來訓練1萬億參數(shù)大模型的速度,,相當于用GPU訓練10億參數(shù),。

四顆并聯(lián),它能在一天之內(nèi)完成700億參數(shù)的調(diào)教,,而且支持最多2048路互連,,一天就可以完成Llama 700億參數(shù)的訓練。

WSE-3的具體功耗,、價格沒公布,,根據(jù)上代的情況看應(yīng)該在200多萬美元。

4.png

5.jpg

6.jpg


weidian.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章,、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者,。如涉及作品內(nèi)容,、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,,以便迅速采取適當措施,,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118,;郵箱:[email protected],。