5G時代來臨,數據傳輸速率和可靠性大幅提升,,催生了更多數據密集型應用。如流媒體,、監(jiān)視和監(jiān)控數據,、聯(lián)網傳感器、社交媒體,、在線協(xié)作,、遠程學習、增強和虛擬現實,、網絡游戲等無窮無盡的在線應用不斷涌現,,使得在線數據量激增。預計在未來10年中,,數據流量的年增長率將超過400倍(圖 1),。
圖 1:2030 年之前的總體數據流量預測。
來源:《人工智能對于電子和半導體行業(yè)的影響》,,IBS,,2020 年 4 月。
這種數據流量的快速增長,,將對數據接口IP提出更高要求,需要其在速度和延遲方面,,尤其是云基礎架構中都有顯著改善,。本文將解釋在數據中心內、數據中心之間,、服務器內以及 SoC 內等,,如何加速數據傳輸和管理。
數據中心內,、數據中心之間如何實現高效數據傳輸,?
目前,大多數大型數據中心都使用100Gbps以太網基礎架構,,并采用數據跨越長距離(例如,,在機架和數據中心之間)進行傳輸,。長距離傳輸架構通常需要使用4個 25 Gbps 或 28 Gbps NRZ SerDes 連接通道。
然而,,數據量正在不斷增長,,亟需速度更快的基礎架構。目前正在部署的超大規(guī)模數據中心中,,使用支持PAM-4編碼的56Gbps和112Gbps SerDes IP,,可實現400Gbps的以太網連接,且,,這一傳輸在未來會將高達800Gbps(圖2),。
圖 2:超大規(guī)模數據中心基礎架構逐漸轉向采用 400+GbE
當前,主要的以太網交換機供應商已經著手開發(fā)基于 112G SerDes IP 的 800Gbps 交換機,,并計劃在未來幾年內推出 1.6Tbps 以太網(使用更快的新一代 SerDes),,以滿足數據量不斷增長帶來的需求。
機架內服務器之間的數據通信,,則由頂層 (ToR) 交換機和網絡接口卡 (NIC) 管理,。過去幾年,云數據中心在該級別最常用的接口速度為25Gbps,。但隨著基礎架構速度提高到400Gbps,,機架內的以太網速度也提高到了 100Gbps。
隨著數據速率的提高,,接口功耗(通常以“皮焦耳/位”為測量單位)和面積變得越來越重要,。物理接口 (PHY) IP 具有明顯的優(yōu)勢,可最大限度地減少能耗,,同時在所需距離內可靠地提供數據,,從而最大限度地降低基礎架構的功耗和散熱成本。節(jié)省空間的硅 PHY 解決方案可最大限度地降低 SoC 成本,,從而為 SoC 供應商提高盈利能力,。
服務器內部如何實現高效傳輸?
當所有數據到達服務器后,,就需要利用高速接口,,在服務器內部的設備之間高效傳遞這些數據。例如,,當數據以100Gbps 的速度到達 NIC 時,,必須將其快速移動到存儲器、系統(tǒng)內存,,也可能移動到圖形或AI加速器中進行處理,。PCI Express (PCIe)、Computer Express Link (CXL) 和類似協(xié)議在這一方面具有優(yōu)勢,。
為了應對流量的快速增長,,PCI-SIG 于 2019 年發(fā)布了 PCIe 5.0,,帶寬較上一代產品翻倍,并力爭在2021年發(fā)布PCIe 6.0,,再次使 PCIe 數據速率翻倍,,達到 64 GT/s(每個 x16 卡的速率高達 128GB/s)(圖 3)。
圖 3:PCI Express 每個通道的帶寬升級過程,。來源:PCWorld
近來,,計算系統(tǒng)生成和處理的數據量(尤其是非結構化數據)呈現出了持續(xù)增長趨勢,促進了新架構的誕生,,新架構通常采用加速器來加快數據處理,。將數據從一個處理器域復制到另一個處理器域是一個資源密集型過程,這會顯著增加數據處理的延遲,。緩存相干解決方案可以讓處理器和加速器共享內存,,而無需將數據從一個內存空間復制到另一個內存空間,從而節(jié)省了復制數據所需的內存資源和時間,。
CXL是一種緩存相干協(xié)議,,它可以利用 PCIe 的數據速率和 PCIe 物理層,使 CPU 和加速器能夠訪問彼此的內存,。在多個設備都需要訪問同一個數據集時,,集成 CXL 協(xié)議可有效減少必須具有非相干協(xié)議的數據副本數,從而減少系統(tǒng)內所需的傳輸次數,。減少數據副本數可有助于降低系統(tǒng)中大量已預留的內存和 IO 接口的負載,。
與其他外設互連相比,用于高性能計算工作負載的 CXL 可顯著降低延遲,。由于 cxl.cache 和 cxl.mem 事務的延遲僅為 50-80 納秒,,因而在 PCIe 延遲中,CXL 延遲僅占一小部分,。此外,,CXL 通過使用資源共享提高性能并降低復雜性,這也降低了總體系統(tǒng)成本,。
SoC 內USR/XSR 如何實現傳遞,?
在符合設計和制造要求的前提下,許多現代服務器 SoC 利用在單個 package 內放置多個 Die來提供所需的性能,。因此,需要高速 die-to-die (D2D) 通信以在芯片內的 Die 之間傳遞大型數據集,。超短距離/極短距離 (USR/XSR) SerDes 可實現這一傳遞,,當前設計使用 112Gbps SerDes,在未來幾年內還可能會達到更高的速度,。
使用 D2D 接口技術的多芯片模塊可處理多種用例,。在此基礎上,,所有 D2D 用例都縮短了開發(fā)時間,并降低了開發(fā)和制造成本,。有些情況使用多個異構 Die(即“小芯片”),,它們利用可重復使用的功能組件,每個組件都使用最適合其特定功能的制造技術構建,。其他情況下,,則通過創(chuàng)建大型高性能 SoC 著重提高靈活性,此類 SoC 使用更小的同質構建模塊來提高良率和可擴展性,。
圖 4:舉例展示 Die 間互連用例
總結
云數據的快速增長推動了對于更快,、更高效接口的需求,從而將云基礎架構內的數據從網絡和系統(tǒng)向下傳輸到芯片級數據通信中,。新推出和正在開發(fā)的接口技術(包括 400Gbps 和更快的以太網,、PCIe 6.0 和 CXL 外設互連技術,以及用于 Die 間通信的新型高速 SerDes)可實現必要的基礎架構改善,,以支持不斷提高的云數據需求,。
新思科技的 DesignWare? 高速 SerDes 和以太網 IP 支持實現新一代數據中心網絡解決方案。DesignWare PCIe IP 是一種穩(wěn)定成熟的技術,,在 90% 的領先半導體公司已得到應用,,為實現 DesignWare CXL IP 奠定了基礎。
DesignWare 112G USR/XSR SerDes IP 為多 Die SoC 提供低成本,、節(jié)能的 die-to-die 接口,。新思科技提供經過硅驗證且品類齊全的 DesignWare 接口 IP 產品組合,同時提供開發(fā)高速,、低功耗,、高度可靠的 SoC 所需的設計和驗證工具,以支持當今和未來云基礎架構不斷提高的數據移動需求,。