如果打開 Nvidia NVL72 機柜的后蓋,你最先注意到的,可能不是那 72 顆 GPU,而是那超過 5,000 根同軸銅纜編織成的密網。這些銅纜總長超過 3.2 公里,是整臺機柜 1.36 噸自重的主要來源。
而在機柜正中央是 9 塊 NVSwitch 托盤,被上下各 9 塊計算托盤夾在中間。之所以這樣排列,是因為銅纜信號在 1.8 TB/s 的帶寬下跑不了幾英尺就開始衰減,NVSwitch 必須離每顆 GPU 盡可能近,居中是距離最短的布局。
![]()
(來源:ServeTheHome)
這臺機柜濃縮了英偉達過去兩年面對的核心問題:銅纜確實好用,但它給系統規模畫了一條硬上限。2026 年 3 月的 GTC 上,黃仁勛宣布要用光互連把 GPU 系統從 72 顆擴展到 576 顆乃至 1,152 顆,并在一個月內向三家光學公司投了 60 億美元。
而在兩年前,他還說光互連太耗電。
銅纜的黃金時代,和它的極限
2024 年 GTC,Nvidia 第一次展示 NVL72 機柜(代號 Oberon)時,銅纜是理所當然的選擇。Nvidia 網絡高級副總裁 Gilad Shainer 向媒體表示:“銅是最好的連接方式,如果你能用的話。它非常便宜,功耗為零,沒有任何有源組件。”
![]()
圖丨NVL72(來源:Nvidia)
銅纜省下的功耗確實可觀。黃仁勛在同年 GTC 主題演講中算過一筆賬:如果 NVL72 用 pluggable optics(可插拔光模塊)替代銅纜,每顆 Blackwell GPU 需要配 18 個 800 Gbps 光模塊,加速器端 9 個,交換機端 9 個,整套系統要多消耗約 20,000 瓦。對一臺已經吃掉 120 千瓦的機柜來說,再加 20 千瓦不太切實。
銅纜還有一個不常被提及的優勢:可靠性。在接近百萬條鏈路的大規模 AI 集群里,可插拔的光模塊每天可能出現數十次鏈路中斷。銅纜是無源器件,沒有激光器會老化,也沒有信號處理芯片會發熱,故障率低得多。
所以英偉達選銅是經過權衡的。72 顆 GPU 通過銅背板全互連,整臺機柜就是一個巨大的加速器,萬億參數模型的推理速度比上一代 H100 快 30 倍。2024 年,這已經是行業能造出的最大一臺機器。
但 AI 模型對 GPU 數量的需求沒有停在 72 顆。
訓練 ChatGPT 級別的模型需要數千顆 GPU 協同工作。NVL72 內部有 NVLink 高速互連,但多臺 NVL72 之間仍然只能靠 InfiniBand 或以太網連接,帶寬和延遲都差了一個量級。如果能把 500 顆甚至 1,000 顆 GPU 放進同一個 NVLink 域,讓它們像一顆芯片一樣通信,訓練效率會大幅提升。
而銅纜擋住了這條路。信號在銅中的衰減隨頻率和距離急劇上升,1.8 TB/s 帶寬下有效傳輸距離不到一米。單個機柜塞不下更多 GPU,跨機柜用銅纜又夠不著。NVL72 已經把銅纜的工程做到了物理極限,再往前一步,需要換介質。最明顯的替代方案就是光,但兩年前黃仁勛親手否掉了這個選項。
光從“太貴”變成“可以用”
光互連本身不是新技術,數據中心的機柜之間早就在用光纖通信。但把光互連用在 GPU 之間的 scale-up 網絡上,也就是讓一組 GPU 構成單一計算單元的內部互連,工程難度完全不同。
Scale-up 網絡對帶寬、延遲和功耗的要求遠比 scale-out(機柜之間的外部網絡)苛刻。2024 年英偉達評估過在 NVL72 上使用可插拔光模塊的方案:單個模塊功耗 10-15 瓦,看起來不多,但 72 顆 GPU 需要幾百個模塊,總功耗多出 20 千瓦。體積也是問題,每個模塊約一包口香糖大小,幾百個要占掉可觀的機柜空間和散熱余量。
改變這個局面的是 co-packaged optics(共封裝光學,CPO)。CPO 把光引擎直接集成到交換芯片的封裝里,省掉了可插拔模塊的外殼、連接器和大部分信號處理電路,功耗和體積都大幅縮減。
2025 年,Nvidia 在自家的 Spectrum 以太網交換機和 Quantum InfiniBand 交換機上率先量產了 CPO,這是英偉達第一次在自己的產品線上規模驗證光學互連。這次在 scale-out 網絡上的部署,也為下一步把 CPO 引入 NVLink scale-up 網絡積累了經驗。
不過 CPO 目前仍處于早期階段。TrendForce 的數據顯示,2026 年 CPO 在 AI 數據中心光模塊中的占比僅約 0.5%,但到 2030 年可能達到 35%。而英偉達選在滲透曲線剛起步的時候大舉押注,所錨定的就是能定義規則的先發位置。
從 72 到 1152:銅光混合的路線圖
2026 年 GTC 上,黃仁勛發布了兩款新系統:Vera Rubin NVL576 和 Rosa Feynman NVL1152。前者把 8 個 NVL72 機柜用光互連組成一個 576 GPU 的計算域,后者進一步擴展到 1,152 顆。
![]()
圖丨Vera Rubin NVL576(來源:DataCenterDynamics)
“有很多討論說英偉達到底要走銅纜 scale-up 還是光學 scale-up,答案是兩個都做。”黃仁勛在主題演講中說。
具體方案分兩層。據英偉達超大規模與高性能計算副總裁 Ian Buck 介紹,NVL576 的第一層網絡(機柜內部 GPU 到交換機的連接)將繼續使用銅纜,GPU 本身不需要改動;第二層 spine 網絡(機柜與機柜之間)會換成光模塊。銅纜在短距離上的低成本和高可靠繼續發揮作用,光只負責銅纜物理上夠不著的那段距離。
到 Feynman 一代(預計 2028 年中后期出貨),Nvidia 打算走得更遠。這代系統將提供 CPO 版本的 NVLink 互連,目前有兩條可能的路徑:一種是只在 NVSwitch 交換芯片上集成 CPO,機柜內仍用銅,代價是需要兩層交換網絡;另一種是在 GPU 封裝上也集成 CPO,整個 NVLink 域只需一層交換網絡,延遲更低。
Shainer 在 GTC 期間接受采訪時拒絕透露英偉達會走哪條路,但暗示了自己的偏好:“Scale-up 網絡如果不是必須,你不會想建多層的,因為你要盡量降低計算引擎之間的延遲。”單層網絡意味著需要一顆端口數極高的交換芯片來直連上千顆 GPU,這在當前工藝下還做不到,但距離 Feynman 出貨還有兩年多時間。
另一個有意思的取舍是:Nvidia 在 Vera Rubin 這一代只對 NVL72 Oberon 機柜做光學擴展,但沒有動 NVL144 Kyber 機柜。一個合理的推測是,既然光互連可以跨機柜擴展,就不需要在單機柜里硬塞 144 顆 GPU 了。把 8 個 72-GPU 機柜用光連起來,散熱和供電壓力都分散了。換句話說,光互連打開的不只是帶寬上限,還有機柜設計上的空間。
60 億美元鎖供應鏈
技術路線定了,接下來的問題是誰來供貨。CPO 省掉了傳統光模塊的大部分組件,但有一樣東西省不掉:激光器。出于可靠性和可維護性的考慮,激光器通常和交換芯片分開放置,作為外部光源單獨供應。誰能控制激光器的產能,誰就卡住了 CPO 大規模部署的咽喉。
2026 年 3 月,Nvidia 向 Coherent 和 Lumentum 各投資 20 億美元,同時簽下多年采購協議,鎖定了優先供應權。Coherent 隨后宣布將在 2026 年把磷化銦(InP)晶圓產能翻倍,擴產資金的主要來源正是英偉達的這筆投資。Lumentum 在高功率連續波激光芯片領域處于領先地位,是 CPO 外部光源的關鍵供應商。兩筆投資瞄準的都是光學供應鏈上最稀缺的環節。
到了月底,Nvidia 又向 Marvell 投了 20 億美元。這筆交易掛在 NVLink Fusion(允許第三方芯片接入 NVLink 生態的平臺)名下,但聯合聲明里明確提到雙方將合作開發硅光子技術。
Marvell 在 2026 年初剛以 32.5 億美元收購了 Celestial AI,后者擁有一種叫做 Photonic Fabric 的光子互連技術,可以用來構建跨機柜的一致性內存網絡。Nvidia 把 Marvell 拉進 NVLink Fusion 生態,Celestial AI 的光子技術大概率將在英偉達體系內落地,而不會流向競爭對手。
![]()
圖丨傳統 CPO 與 Photonic Fabric 的對比(來源:Celestial AI)
三筆投資合計 60 億美元,一個月內密集完成。節奏一如英偉達過去在 HBM(高帶寬內存)和 CoWoS(臺積電先進封裝)上的做法,趁技術拐點到來之前提前鎖定稀缺產能,讓競爭對手在供應端慢一拍。Futurum 的分析師把光學稱為 AI 基礎設施擴展的下一個瓶頸環節,而英偉達正趕在瓶頸形成之前卡住上游。
對 UALink 陣營來說,這個時間差相當不利。UALink 是 AMD、Intel、Broadcom 等公司聯手推動的開放互連標準,目標是打破 NVLink 的封閉生態。但 UALink 硬件最早也要到 2026 年底才能出貨,規模部署可能得等到 2027 年甚至更晚。而英偉達這邊,光學供應鏈已經在簽約、擴產、集成。等到開放標準的硬件終于量產,關鍵光學元件的產能可能已經被英偉達的長期協議占去了相當一部分。
不過 Shainer 至今仍然說銅是最好的連接方式。當然,前提是“如果你能用的話”。在機柜內部 GPU 到交換機的短距離連接上,銅纜依然是最經濟、最可靠的方案,Vera Rubin 和 Feynman 都會繼續使用銅背板。銅沒有被淘汰,只是它能覆蓋的范圍不再夠用了。
兩年前黃仁勛拒絕光互連的時候,72 顆 GPU 還裝得下英偉達最大的野心,但現在已經裝不下了。
參考資料:
https://developer.nvidia.com/blog/nvidia-contributes-nvidia-gb200-nvl72-designs-to-open-compute-project/
https://www.theregister.com/2026/04/05/nvidia_optical_scale_up/
https://www.trendforce.com/presscenter/news/20260311-12962.html
https://newsletter.semianalysis.com/p/co-packaged-optics-cpo-book-scaling
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.