2025年10月30日 | AI人工智慧, AI Server/HBM/Server

InfiniBand vs Ethernet:Broadcom 與 NVIDIA 的 Scale-Out 技術戰

Ethernet 被看好重返資料中心 Scale-Out 主流,但 InfiniBand 仍穩據高效能運算領域,Broadcom 和 NVIDIA 兩大陣營正展開新一輪角力。

隨著 AI 模型規模爆炸性增長,資料中心擴展已從單一系統的 Scale-Up 進入數萬節點互連的 Scale-Out 階段。Scale-Out 網路主要由兩大技術陣營競爭:

  1. InfiniBand:作為性能王者,由 NVIDIA 旗下 Mellanox 所主導,憑藉原生 RDMA 協定,提供 <2us 的極低延遲和無丟包風險。
  2. Ethernet(乙太網路):具有開放生態與顯著的成本優勢,由 Broadcom 等大廠推動。

2025 年 6 月,Ethernet 發起強勢反擊,超乙太網路聯盟(UEC)發佈 UEC 1.0,透過重構網路層級,實現媲美 InfiniBand 的極致效能,多重優勢下估計 Ethernet 將逐漸擴大市場規模,這場技術變革重塑了整個 Scale-Out 市場競爭格局!

圖 1

InfiniBand 與 Ethernet 市場規模預估

2025 年光收發模組出貨成長:800G 與 1.6T 模組成長 | Optical Transceiver Shipments in 2025 Rise for 800G and 1.6T Modules

2025 全球 AI 資料中心互連趨勢

高速光互連與共同封裝(CPO)技術正在重塑 AI 資料中心,掌握 Scale-Up、Scale-Out、Scale-Across 架構與市場格局。

了解趨勢

Scale-Out 關鍵戰場:InfiniBand 優勢與 Ethernet 反擊

目前 Scale-Out 主流的 InfiniBand 架構,擁有原生的遠端直接記憶體存取(Remote Direct Memory Access, RDMA)協定,其原理為:

  1. 資料傳輸時透過 DMA 控制器傳送到具 RDMA 功能的網路介面卡(RNIC)。
  2. 由 RNIC 進行資料包封裝後,直接傳送到接收方的 RNIC。

由於過程中不需要如傳統 TCP/IP 協定須經過 CPU 參與,因此 InfiniBand 資料傳輸便可達到極低延遲(<2 μs)。

此外,InfiniBand 還擁有在連結層(Link Layer)的基於信用的流量控制(Credit-Based Flow Control,CBFC)機制,確認接收方有可用空間才傳輸資料,確保零丟包風險。

原生的 RDMA 協定需要搭配 InfiniBand 交換器(Switch)才能運作,然而,InfiniBand Switch 長期被 NVIDIA 旗下的 Mellanox 所主導,生態系相對封閉,且採購、維運成本較高,硬體成本約為 Ethernet Switch 的 3 倍!

表 1. InfiniBand 技術演進

年份 2011 2015 2017 2021 2024 2027 2030
資料速率 FDR
(Fourteen Data Rate)
EDR
(Enhanced Data Rate)
HDR
(High Data Rate)
NDR
(Next Data Rate)
XDR
(eXtreme Data Rate)
GDR (E) LDR (E)
頻寬/Port (8 Lanes) 109 Gbps 200 Gbps 400 Gbps 800 Gbps 1.6 Tbps 3.2 Tbps 6.4 Tbps
頻寬/Port (4 Lanes) 54.5 Gbps 100 Gbps 200 Gbps 400 Gbps 800 Gbps 1.6 Tbps 3.2 Tbps
頻寬/Lane 13.6 Gbps 25 Gbps 50 Gbps 100 Gbps 200 Gbps 400 Gbps 800 Gbps
調變技術 NRZ NRZ NRZ PAM4 PAM4 PAM6 (E) PAM6 (E)

註: (E) 表示「估計」。
(來源:TrendForce)

因為 Ethernet 擁有開放生態系、多家供應商、部署靈活、硬體成本較低,使其逐漸興起。

為了在 Ethernet 上也能實現 RDMA 的優點,IBTA(InfiniBand Trade Association)於 2010 年推出了基於融合乙太網路的 RDMA:RoCE(RDMA over Converged Ethernet)協定。初始的 RoCE v1 僅在 Link Layer 加入 Ethernet Header,受限於 Layer 2 子網路內通訊,無法跨路由器或不同子網傳輸。

為提升部署靈活性,IBTA 於 2014 年推出 RoCE v2,將 Layer 3 Network Layer 中的 InfiniBand GRH(Global Route Header)修改為 IP/UDP Header,此改動使 RoCE 封包能被標準 Ethernet Switch 與路由器識別和轉發,就能跨越多個子網或路由器傳送,部署靈活性大幅提高。然而,RoCE v2 的延遲仍略高於原生 RDMA 約 5 μs,且需要額外功能(如 PFC、ECN)以降低丟包風險。

圖 2

RDMA 技術比較:封閉式 InfiniBand 與開放式 RoCE | RDMA Technology Comparison: Closed InfiniBand vs. Open RoCE

上圖 2,RDMA 技術下的 InfiniBand 與開放式 RoCE 比較重點:

  • InfiniBand 為封閉協議堆疊,全棧自有,延遲最低。
  • RoCE v1 在 Ethernet 下模擬 IB 架構,只能在同一 Layer 2 網段使用。
  • RoCE v2 採 IP 網路層,支援跨網段,與現有資料中心的 Ethernet 架構相容性最高。

表 2. Ethernet 技術演進

年份 2016 2018 2019 2021 2023 2025 2027
單晶片總頻寬 3.2 Tbps 6.4 Tbps 12.8 Tbps 25.6 Tbps 51.2 Tbps 102.4 Tbps 204.8 Tbps
單晶片 Port 數 32 64 64 64 64 64 64
頻寬/Port 100 Gbps 100 Gbps 200 Gbps 400 Gbps 800 Gbps 1.6 Tbps 3.2 Tbps
Lane數/Port 4 4 4 4 8 8 8
頻寬/Lane 25 Gbps 25 Gbps 50 Gbps 100 Gbps 100 Gbps 200 Gbps 400 Gbps
調變技術 NRZ NRZ NRZ PAM4 PAM4 PAM4 PAM6 (E)

註: (E) 表示「估計」。
(來源:TrendForce)

綜上所述,InfiniBand 擁有極低延遲、無丟包風險的原生優點,因此在現今的 AI 資料中心中仍被廣泛採用;然而,其硬體與運維成本較高,以及供應商有限。而在 Ethernet 上使用 RoCE v2 協定的效能雖然仍不如 InfiniBand,卻具有生態系開放,以及硬體與運維成本較低的優勢,使得大家開始轉向採用 Ethernet 架構。

表 3. AI 資料中心網路 InfiniBand 與 Ethernet 關鍵技術比較

協議 InfiniBand (RDMA) Ethernet (RoCE v2)
延遲 <2us <5us
目前主流頻寬/Port 800 Gbps 800 Gbps
無丟包機制 Credit-Based Flow Control (CBFC) Ethernet Flow Control (802.3x)、PFC、ECN
生態系 封閉 (NVIDIA) 開放
硬體成本 高 (1x) 低 (1/3)

(來源:TrendForce)

如今,AI 資料中心需求擴張,加上成本與生態考量,NVIDIA 開始進軍 Ethernet 市場。NVIDIA 目前除了自有的 InfiniBand Switch Quantum 系列,也提供 Ethernet 產品 Spectrum 系列。

今年推出的 Quantum-X800 可提供 800 Gbps/Port × 144 個 Port,總頻寬共 115.2 Tbps;Spectrum-X800 可提供 800 Gbps/Port × 64 個 Port,總頻寬共 51.2 Tbps,並預計分別在 2H25、2H26 推出 Quantum-X800 與 Spectrum-X800 的 CPO(Co-Packaged Optics)版本。

儘管 Spectrum 相較其他廠商的 Ethernet Switch 價格較高,NVIDIA 的優勢在於產品能與其軟硬體深度整合,例如搭配 BlueField-3 DPU 與 DOCA 2.0 平台,以實現高效自適應路由(Adaptive Routing)等技術。

Switch IC 成本與 CPO 布局競賽:Ethernet 陣營領跑,InfiniBand 緊追

在 Ethernet 領域,Broadcom 仍是 Ethernet Switch 的技術領先者,其 Tomahawk 系列 Switch IC 遵循「每兩年總頻寬翻倍」的規律。至 2025 年,Broadcom 首次推出全球總頻寬最大的 Switch IC Tomahawk 6,總頻寬達 102.4 Tbps,可支援 1.6 Tbps/Port × 64 Port。此外,Tomahawk 6 同步支援超 UEC 1.0 協議,可採用多路徑封包噴灑(Multipath Spraying)、LLR、CBFC 等功能,進一步降低延遲與丟包風險。

Broadcom 也在 CPO 技術上領先,自 2022 年起推出 CPO 版本的 Tomahawk 4 Humboldt,2024 年推出 Tomahawk 5 Bailly,並持續在 2025 年推出 Tomahawk 6 Davisson,鞏固其在 Ethernet 硬體整合的領先地位。

表 4. Scale-Out Switch IC 比較:Broadcom、NVIDIA、Marvell、Cisco

供應商 Broadcom NVIDIA Marvell Cisco
產品 Tomahawk 5 Tomahawk 6 Tomahawk 6 (CPO) Quantum-3 Quantum-3 (CPO) Spectrum-4 Spectrum-4 (CPO) Teralynx 10 Cisco Silicon One G200
推出時間 2023 2025 2025 2024 2025 2024 2026 2024 2023
製程節點 N5 N3 N3 N4 N4 N4 N4 N5 N5
單晶片頻寬 51.2 Tbps 102.4 Tbps 102.4 Tbps 28.8 Tbps 28.8 Tbps 51.2 Tbps 102.4 Tbps 51.2 Tbps 51.2 Tbps

(來源:TrendForce)

相較於 Broadcom 今年首先推出 102.4 Tbps 的 Tomahawk 6,NVIDIA 預計於 2026 下半年才推出 102.4 Tbps 的 Spectrum-X1600,技術仍落後 Broadcom 約一年。

在 CPO 方面,NVIDIA 預計在 2026 下半年同步推出 CPO 版本的 102.4 Tbps Spectrum-X Photonics,追趕 Broadcom 的腳步。

表 5. NVIDIA Scale-Out 網路發展路徑

時間 1H25 2H25 2H26 2H27 2028
平台 Blackwell Blackwell Ultra Rubin Rubin Ultra Feynman
InfiniBand Switch
Switch Quantum-2 Quantum-X800 Quantum-X1600 Quantum-X3200
總頻寬 51.2 Tbps 115.2 Tbps 230.4 Tbps -
頻寬/Port 400 Gbps 800 Gbps 1.6 Tbps 3.2 Tbps
Ethernet Switch
Switch Spectrum-X800 Spectrum-X1600 Spectrum-X3200
總頻寬 51.2 Tbps 102.4 Tbps 204.8 Tbps
頻寬/Port 800 Gbps 1.6 Tbps 3.2 Tbps
網路介面卡(NIC)
SuperNIC ConnectX-8 ConnectX-9 ConnectX-10
頻寬/Port 800 Gbps 1.6 Tbps 3.2 Tbps
頻寬/Lane 200 Gbps 200 Gbps 400 Gbps
PCIe 規格 PCIe 6.0 (48 lanes) PCIe 7.0 (48 lanes) PCIe 8.0

(來源:TrendForce)

除了 Broadcom、NVIDIA 二大陣營,還有其它供應商也加入角逐行列,Marvell 於 2023 年推出總頻寬 51.2 Tbps 的 Teralynx 10,以及 Cisco 也在 2023 年推出總頻寬 51.2 Tbps 的 Cisco Silicon One G200 系列,並推出他們的 CPO 原型機。

電通訊極限逼近,光學整合成為新戰場

傳統資料傳輸多使用銅纜的電通訊,然而隨著傳輸距離需求增加,光纖傳輸的光通訊在 Scale-Out 場景中逐漸展現優勢。與電通訊相比,光通訊具備低損耗、高頻寬、不易受電磁干擾以及長距離傳輸等特性,如表 6 所示。

表 6. 電通訊與光通訊架構比較

技術 電通訊 光通訊
媒介 銅纜 光纖
主流傳輸速率 56–112 Gbps 200 Gbps
互連距離 ≤100 m (視傳輸速度影響距離) MMF(SR):50–100 m
SMF(DR/FR):500 m–2 km
SMF(LR/ER/ZR):10–80+ km
功耗 高頻下功耗高 元件功耗高,但封裝整合可降低總功耗
穩定性 易受電磁干擾 不受電磁干擾
成本 短距離最低成本、連接簡單 初始成本較高,但距離/密度擴展性佳

(來源:TrendForce)

目前光通訊多採用可插拔式(Pluggable)的光收發模組(Optic Transceiver)進行光電訊號轉換,傳輸速率已提升至 200 Gbps/Lane,總頻寬可達 1.6 Tbps(8 × 200 Gbps)。

隨著速率提升,功耗增加、電路板上的訊號損耗問題也愈發明顯。矽光子(Silicon Photonics, SiPh)技術正是為解決這些問題而誕生。

矽光子技術就是將光收發模組元件微縮並整合進矽晶片,形成如下圖光子積體電路(Photonic Integrated Circuit, PIC),再進一步封裝在晶片內,縮短電路距離並改以光路傳輸,這種封裝方式即為共同封裝光學(Co-Packaged Optics, CPO)。

圖 3

光子積體電路(PIC)組成示意圖

廣義的 CPO 如下圖 4,包含多種封裝形式,包括 OBO(On-Board Optics)、CPO 以及 OIO(Optical I/O)。

圖 4

CPO(共同封裝光學)技術演進

上圖 4 可見,光引擎(Optical Engine,OE)的封裝位置呈現逐步靠近主要 ASIC 的趨勢,演進細節如下:

  • OBO:將 OE 封裝於 PCB 板上,現今較少使用。
  • 狹義 CPO:將 OE 封裝於基板(Substrate)上,為目前主流方案。相較於可插拔模組,功耗降至 <0.5 倍 (~5 pJ/bit)、延遲降至 <0.1 倍 (~10 ns)。
  • OIO:將 OE 封裝於中介層(Interposer)上,為未來發展方向。相較於可插拔模組,功耗降至 <0.1 倍 (<1 pJ/bit)、延遲降至 <0.05 倍 (~5 ns)。

然而,CPO 仍有散熱、鍵合、耦合等技術挑戰,隨著電通訊逼近極限,CPO 與矽光子技術的突破將決定未來 Scale-Out 網路的新戰場。

TrendForce 預測 2025 年資本支出密集度將上升,顯示業界在 AI 基礎建設部署上的投資策略將採取更積極的步伐。

2025 全球 AI 伺服器趨勢:CSP 加速投資與自研 ASIC

誰正主導下一波 AI 基礎建設投資?雲端巨頭資本支出全面升溫,整櫃 GPU、自研晶片與液冷系統成為核心戰場。揭開下一代 AI 資料中心的投資策略。

了解趨勢

Ethernet 陣營集結:UEC 推動 UEC 1.0 標準

正如前述,InfiniBand 的極低延遲特性,使其在生成式 AI 發展初期搶下大量市占率。然而,Ethernet 生態系作為高效能網路的主流之一,也為實現極低延遲,在 2023 年 8 月成立了超乙太網路聯盟(Ultra Ethernet Consortium,UEC),初始成員包括 AMD、Arista、Broadcom、Cisco、Eviden、HPE、Intel、Meta、Microsoft 等 9 家大廠。

相較於以 NVIDIA 為首的 InfiniBand 生態系,UEC 強調開放標準與互操作性,避免被單一供應商綁定。

UEC 於 2025 年 6 月發佈了 UEC 1.0,這不是僅在 RoCE v2 基礎上的改良,而是在軟體層(Software)、傳輸層(Transport)、網路層(Network)、連結層(Link)與物理層(Physical)等所有層級重新建構。

圖 5

UEC 1.0 分層規範

其中,降低延遲的關鍵更動在於在 Transport 層新增封包傳輸子層(Packet Delivery Sublayer, PDS)功能,主要特點為:

  1. 採用多路徑傳輸(Multipath),即端點之間有多條等距等速的路徑(Rail/Lane)。
  2. NIC 透過分配一個熵值(Entropy)將封包噴灑到所有 Lane 上,使其透過並聯獲得更大頻寬。

這樣的多層結構可加快網路恢復速率,如快速替換遺失封包,以確保流量順暢,近似 InfiniBand 的自適應路由。

另一方面,在降低丟包風險上,UEC 1.0 主要有 2 項更動:

  1. 在 Link Layer 加入可選的 Link Layer Retry(LLR)功能,即封包遺失時可以在本地 Link 端快速請求重傳,降低對基於優先及的流量管控(Priority Flow Control, PFC)機制的依賴。
  2. 在 Link Layer 加入可選的基於信用的流量控制(Credit-Based Flow Control, CBFC)功能,即發送端必須先獲得接收端的 Credit 才能傳送資料,接收端處理完畢並釋放空間後回傳新的 Credit ,以達到流量控制與無丟包風險,近似 InfiniBand 的 CBFC。

中國 Scale-Out 自成一格:Ethernet 標準化與自研技術並行

中國的 AI 基礎建設 Scale-Out 架構朝向「自主可控 + 國際兼容」發展,除了遵循國際 Ethernet 標準化的同時,國內各大廠也積極投入自研架構,逐步形成具本土特色的 Scale-Out 架構體系。

阿里巴巴、百度、華為、騰訊等主要科技大廠選擇加入 UEC,共同推動 UEC 的制定。除了參與標準化,中國主要廠商也各自開發自研 Scale-Out 架構,普遍以「低延遲、零丟包」為目標,直接對標 InfiniBand。

表 7. 中國的 Scale-Out 與 UEC 架構比較

協議 UEC 1.0 GSE 2.0
(中國移動)
HPN 7.0
(阿里雲)
UB 1.0
(華為)
延遲 <2us <2us <2us <2us
主流 BW 800 Gbps 800 Gbps 400 Gbps 400 Gbps
無丟包機制 Link Layer Retry (LLR)、Credit-Based Flow Control (CBFC) DGSQ 流量管制 Solar-RDMA、「雙平面」分配流量 Link Layer Retry (LLR)
生態系 開放 開放 開放 封閉

(來源:TrendForce)

這些自研技術架構的具體細節如下:

  • 中國移動:全調度乙太網(GSE)
    中國移動於 2023 年 5 月率於 UEC 架構前推出 GSE,分為兩個階段:
    • GSE 1.0 在現有 RoCE 網路基礎上優化,透過端口級負載均衡、端網協同的壅塞感知等,提升資料傳輸穩定性與整體性能,減少算力浪費。
    • GSE 2.0 是全面重構網路設計,從控制、傳輸到運算層重新建立協議,導入 Multipath Spraying 與流量管控機制(DGSQ)使更有效分配流量,進一步降低延遲與丟包風險,以滿足未來 AI 運算中心的高性能需求。
  • 阿里雲:高性能網路(HPN)
    阿里雲的 HPN 7.0 架構採用了「雙上聯 + 多軌 + 雙平面」設計,透過雙上聯提升網路性能、多軌允許封包平行傳輸、雙平面強化網路穩定性。而下一代 HPN 8.0 計畫採用全自研硬體,如 102.4 Tbps Switch IC,實現 800Gbps 頻寬,對標國際方案。
  • 華為:UB-Mesh 互連架構
    華為的 Ascend NPU 平台中部署自研的 UB-Mesh 架構,採用多維度 nD-Full Mesh 拓撲設計,具備橫向 Scale-Up 與縱向擴展 Scale-Out 能力。當拓展至 3D 以上結構時,即達到 Scale-Out 層級,可支撐超大規模 AI 訓練叢集。

中國的自研 Scale-Out 架構持續發展,預期將為中國本地廠商提供更大的成長空間,隨著中際旭創、光迅科技等企業的加入,本土光模組與矽光技術有望形成完整產業鏈,推動中國在 AI 基礎網路領域走向自成一格的路線。

主要美國雲端供應商(CSP)持續在全球部署 AI 基礎建設,旨在取得算力競爭優勢。

2025 全球及中國 AI 資料中心佈局與展望

美系業者持續全球部署,並加大對美投資;中國業者除了維持在地化,也透過自研晶片外擴全球,雙方的未來都將能源穩定性擺在首要位置。

了解趨勢

AI 資料中心的技術轉型與供應鏈機會

長期以來,NVIDIA 的 InfiniBand 以極低延遲(<2μs)與零丟包優勢,主導 AI 資料中心的 Scale-Out 市場。然而,隨著 UEC 於 2025 年 6 月發佈 UEC 1.0 標準,Ethernet 網路力求與 InfiniBand 相當的低延遲與高穩定性,正逐步重獲市場競爭力。同時,Broadcom 依循「Switch IC 頻寬每兩年翻倍」的發展節奏,使 Ethernet 的硬體基礎不斷躍升。

隨著傳輸速率提升至 1.6 Tbps 或以上,傳統可插拔光模組的功耗與延遲成為瓶頸,CPO 技術因此逐步成為高性能網路標準。CPO 將光收發元件直接整合至 Switch 晶片基板上,大幅降低功耗與延遲。Broadcom 在 CPO 領域領先,已自 2022 年起推出多代 CPO 版本 Switch。NVIDIA 也將於 2025 下半年推出 InfiniBand CPO 產品,CPO 將逐漸成為主流網路架構。

隨著 Ethernet 與 CPO 技術的成熟,AI 資料中心網路正全面邁向高速光通訊化,帶動光收發模組與上游供應鏈(矽光子晶片、雷射光源、光纖模組等)的新的成長機會。

預計在 Scale-Out 架構中,Nvidia 將持續主導傳統 InfiniBand 市場;而在 Ethernet 領域,Broadcom 將依靠領先的高頻寬 Switch IC、CPO 技術及 UEC 標準的落地,持續掌握主要市場份額。

NVIDIA 和 Broadcom 在 2025 年 8 月不約而同地提出了 Scale-Across 的概念,目標是將規模進一步擴展至跨資料中心互連,未來將實現更大規模 GPU 互連與更長距離傳輸,推動高性能網路與資料中心架構的新格局。

ASIC 將超車 GPU?NVIDIA 從 Scale-Up 霸主到全面戰爭

ASIC 成長率 2026 年將超車 GPU,NVIDIA 面臨前所未有的競爭壓力。戰局已從晶片性能轉向互連網路、核心交換器、軟體與生態系的全面之爭!

揭開 NVIDIA AI 策略

關於作者

本文由 TrendForce 研究團隊提供分析資料與專業觀點,經資深編輯撰寫。

聯絡我們

聯絡我們