久久ER99热精品一区二区-久久精品99国产精品日本-久久精品免费一区二区三区-久久综合九色综合欧美狠狠

新聞中心

EEPW首頁 > 網絡與存儲 > 設計應用 > 縱向擴展、橫向擴展迎來新范式:跨數據中心擴展

縱向擴展、橫向擴展迎來新范式:跨數據中心擴展

作者: 時間:2026-03-13 來源: 收藏

核心要點

當下的數據中心負載(尤其是 AI 與高性能計算 HPC),已突破單機架乃至單一數據中心的物理、功耗與架構極限。兩種傳統擴展方式備受關注:通常限于機架內部,則延伸至數據中心內的多個機架。當單數據中心資源耗盡時,業界開始流行一個新詞 ——跨域擴展(,即把資源調度范圍拓展到另一個數據中心。

縱向擴展以最小化延遲為目標,橫向擴展更關注抖動控制。跨域擴展面臨與橫向擴展相似的挑戰,但因長距離場景下的抖動處理方式存在差異,故而成為獨立概念。

這些定義主要適用于 AI 與 HPC 場景,這兩類負載需要調集海量計算與內存資源。HPC 長期受此問題困擾,而 AI(訓練與推理)則以驚人的發展速度迅速觸及同樣瓶頸。

博通核心交換部門產品線經理 Robin Grindley 表示:“在技術需求上,HPC 與 AI 縱向擴展幾乎完全一致,在一定程度上也與 AI 橫向擴展高度吻合。”

有人將縱向擴展視為南北向流量網絡,橫向擴展為東西向流量網絡;跨域擴展可看作更遠距離的橫向擴展,同樣屬于東西向流量。楷登電子硅解決方案部門設計 IP 高級產品營銷群總監 Arif Khan 指出:“數據中心內的東西向與南北向網絡特性截然不同。”

乍看之下,三種擴展模式目標一致 —— 調度外部資源。但為何需要劃分三個不同類別?答案在于實現細節

一、縱向擴展():機架內聚合

縱向擴展旨在將計算資源(以 GPU 為主)聚合為一臺巨型處理器,而非一堆小型處理器的集合。新思科技接口 IP 產品管理總監 Priyank Shukla 解釋:“機器學習集群的核心思路,是把加速器、GPU 等算力資源整合,輸入海量數據,最終輸出訓練完成的模型。”

縱向擴展有四大核心特征:

  1. 互聯核心優化指標:延遲

  2. 采用內存語義:所有處理器共享同一內存空間

  3. 資源分配通常為靜態,在啟動階段完成

  4. 距離更短,銅介質互聯仍為主流

英偉達網絡高級副總裁 Gilad Shainer 強調:“延遲是關鍵,高消息速率同樣重要。它本質上執行加載 / 存儲、網內計算,以及計算結果的多級歸約。相比橫向擴展,它需要約 10 倍帶寬,用于 GPU 間數據搬運,并要求完全同步,形成統一整體。”

內存語義支持對本地內存的直接訪問,實現最低延遲。抖動依然存在,但遠低于橫向擴展場景。

Shukla 補充:“內存語義意味著一個加速器可訪問另一加速器的內存空間,具備內存一致性。為實現這種內存效率,部分集群架構會在功耗與面積上做出妥協。”

最小化跳數

互聯架構的跳數會增加延遲。早期方案為單跳,部分方案開始采用多層交換,跳數增加會輕微抬升抖動,但整體仍處于極低水平。

楷登電子 Khan 表示:“UALink 1.0 定義為單跳協議,聯盟內部已討論多層交換拓撲的必要性;若明確機架拓撲與任務劃分,可采用靜態路由適配。”

資源編排在程序加載階段完成,靜態配置避免了實時申請資源帶來的額外延遲。

該場景仍傾向使用銅介質而非光互聯:短距離下銅介質功耗更低,光模塊需先消耗功耗產生光束,短連接效率不如銅介質。

Shainer 稱:“我們盡可能使用銅介質,它成本最優、可靠性高、且基礎功耗近乎為零。”

目前縱向擴展至少有兩項標準:UALink 與新型以太網變體,物理層一致,差異在協議棧。

二、橫向擴展():跨機架調度資源

西門子 EDA 驗證 IP 產品總監 Gordon Allan 用類比區分縱向與橫向擴展:

“一個人靠大腦思考,需要更強智能時,要么換更聰明的大腦(縱向擴展),要么召集十個人協同思考(橫向擴展)。大腦內部的通信是縱向擴展,人與人之間的通信是橫向擴展。”

橫向擴展從不同機架調取數據,核心特征:

  1. 互聯核心優化指標:數據包抖動

  2. 采用RDMA(遠程直接內存訪問)語義,而非內存語義

  3. 資源動態分配與釋放

  4. 距離更長,光互聯開始普及

它更接近傳統網絡范式:縱向擴展尋址內存,橫向擴展發送數據包。低延遲同樣重要,但抖動可控是核心。

數據包丟失會導致重傳,迫使大量算力資源等待,因此協議必須無損

集群間可共享數據(指針、張量),但不共享內存空間。Shukla 指出:“混合專家模型、智能體模型等新架構,需要多集群協同,無法用單跳交換連接全部節點。”

與縱向擴展的靜態配置不同,橫向擴展資源動態增減,多數場景無需完整內存一致性。

以太網成為主流

盡管英偉達早期以 InfiniBand 支撐橫向擴展,現已兼容以太網。Shainer 解釋:“大量用戶已深度投入以太網生態,我們為 AI 場景定制了專用以太網版本。”

核心目標是管控流量與擁塞,避免瓶頸與熱點。

博通 Robin Grindley 表示:“橫向擴展通常經過 3–5 跳,排隊延遲與擁塞概率更高,核心是擁塞控制與流量管理;而縱向擴展高度編排,加速器直連,無需復雜流量調度。”

英偉達通過遙測探針實時監測鏈路延遲,比傳統交換機擁塞標記響應更快;并讓交換機忽略數據包順序,由網卡直接將數據寫入 GPU 指定位置,降低抖動。

光互聯可降低延遲,機架間以光纖為主,共封裝光學(CPO)部署在交換機而非服務器。

三、特殊場景:部分地區縱向擴展跨機架

上述定義適用于全球多數地區,但在部分國家,縱向擴展邊界與橫向擴展出現重疊。

受地緣限制導致 GPU 性能不足的地區,企業會將 2–3 個機架納入縱向集群,以湊足算力。

Lightelligence 工程副總裁 Maurice Steinman 稱:“中國 GPU 性能受限,單節點算力僅為高端英偉達 / AMD 節點的一部分,要達到同等集群性能,縱向擴展域必須更大。”

連接相鄰機架可維持低延遲,但需雙跳交換,犧牲單跳特性,是性能與延遲的權衡。

日本出現類似情況,原因則是機架功耗上限收緊。經濟產業省正推進數據中心能效法規,計劃 2026 年 3 月底修訂、4 月實施,單機架功耗受限,迫使縱向擴展跨機架。

四、跨域擴展():數據中心間擴展

當單一數據中心資源耗盡,就需要跨數據中心協同運行同一 workload。

Shainer 給出通俗類比:

“市區開車車距小,跟車激進;長途高速車距大,反應時間充足,控車方式更平緩。橫向擴展像市區駕駛,跨域擴展像長途高速。”

跨域擴展本質更接近橫向擴展,但長距離下擁塞控制算法與策略顯著不同。

五、各數據中心實踐方案不同

不同廠商采用不同組合:

  • 英偉達:NVLink(縱向)+ InfiniBand(橫向)

  • 谷歌:ICI(基于 PCIe,縱向)+      以太網(橫向)

隨著數據中心演進,三類擴展的邊界正在模糊。


評論


相關推薦

技術專區

關閉