今年英偉達 GTC 主題演講,應該是史上懸念最少的一屆。
2022 年說元宇宙,2023-2024 年說生成式 AI,2025 年說物理 AI。但今年不一樣,即便臺上英偉達創始人黃仁勛的演講還沒有開始,但臺下所有人已經知道答案了——Agent。
![]()
包括英偉達也悄悄在 GTC 園區里開設了「Build-a-Claw」互動專區,讓與會者現場搭建自己的AI Agent。 從芯片到模型,從英偉達版龍蝦到數據中心,今年主題演講的潛臺詞只有一句話:
一切都要為 Agent 讓路。
![]()
專為 Agentic AI 打造的 Vera Rubin 正式發布
如果說 Hopper 架構開啟了生成式 AI(Generative AI)的時代,讓機器學會了「說話」;那么 Vera Rubin 的使命,就是開啟智能體(Agentic AI)時代,讓機器學會「干活」。
![]()
英偉達 Vera Rubin 架構包含七款芯片、五套機架系統,以及一臺用于 AI Agent 的超級計算機
七款芯片分別是 NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink? 6 交換機、NVIDIA ConnectX-9 超級網卡、NVIDIA BlueField-4 DPU 和 NVIDIA Spectrum?-6 以太網交換機,以及新集成的 NVIDIA Groq 3 LPU
五個機架分別是 NVIDIA Vera Rubin NVL72 機架、NVIDIA Vera CPU 機架、NVIDIA Groq 3 LPX 機架、NVIDIA BlueField-4 STX 存儲機架,以及 NVIDIA Spectrum-6 SPX 以太網機架。
過去的 AI 像是一個極其聰明的圖書館管理員,我們問一個問題,它慢條斯理地翻書,然后把答案整理出來。我們對這種速度是寬容的,因為我們自己打字看書也慢。
但 Agent 完全不同。它不僅要用大模型思考,還要瘋狂地調用工具——比如打開瀏覽器、控制云端的虛擬 PC、在無數個數據庫里來回比對。更要命的是,AI 對工具的容忍度極低,它要求一切操作都在毫秒級完成。
「它會狠狠地捶打內存。」黃仁勛在臺上這樣形容。
![]()
當模型越來越大,上下文長度從十萬 Token 飆升到數百萬,還要同時處理結構化和非結構化的數據,傳統的算力架構開始喘不過氣了。為了應對這種「捶打」,英偉達交出了第一份答卷,全新的 Vera CPU。
這顆芯片特立獨行,它是世界上首款專為智能體 AI 和強化學習時代打造的處理器,其效率是傳統機架式 CPU 的兩倍,速度提升 50%,采用 LPDDR5X 內存,能實現極高的單線程性能、大型的數據吞吐量和極致的能效。
黃仁勛甚至毫不掩飾他的驕傲:「我們從沒想過會單獨賣 CPU,但現在,這絕對是一個價值數十億美元的業務。」
![]()
緊隨其后的是 Rubin GPU,單片芯片直接塞進了高達 288 GB 的海量內存。它就像是一個擁有無限腦容量的思考者,專門用來裝載那些體積越來越龐大的超大語言模型,以及處理成百上千萬的上下文 KV 緩存。
除了堆疊 CPU 和 GPU,英偉達這次發布的 Vera Rubin 架構,直接把 NVLink 的帶寬翻了一倍——260 TB/s 的全互聯帶寬。
十年前,DGX-1 用第一代 NVLink 把 8 張卡連在一起,那是專為 AI 研究員打造的奇跡;到了 Hopper 時代,是 NVLink 4;而前不久的 Blackwell 架構,用 NVLink 72 實現了 72 張 GPU 的全互聯,帶寬達到 130 TB/s。
為了配合 Vera Rubin,黃仁勛甚至掏出了被稱為 Kyber 的全新機架。在這個機架里,計算節點垂直插入,背后是第六代 NVLink 交換機。完全拋棄了傳統的以太網或 InfiniBand 限制,在一個 NVLink 域內直接打通 144 張 GPU。
![]()
即便強如 Vera Rubin,在面對「無限生成 Token」的極端需求時,也會感到吃力。
在算力世界里,吞吐量(Throughput,同時處理巨量任務的能力)和延遲(Latency,單次任務的極速響應)是一對物理學上的死敵。英偉達是吞吐量的絕對霸主,但在極致低延遲的 Token 生成上,傳統 GPU 架構顯得過于笨重。
![]()
這時候,Groq 出場了。英偉達早在之前就「收購」并授權了 Groq 團隊的技術,在今天正式推出了Groq LPU(語言處理單元)。
![]()
黃仁勛用一款名為 Dynamo 的軟件,把這兩者完美捏合,首創了「解耦推理(Disaggregated Inference)」。
AI 推理前半段的 Prefill(預填充)和極其耗費算力的 Attention(注意力機制),全部交給 Vera Rubin 這個性能王者來處理;
后半段的 Decode(解碼),也就是生成 Token 的瞬間,直接卸載給 Groq LPU 來降低延遲。
![]()
結果顯示,在最具商業價值的高端推理層級,這種組合讓性能直接飆漲了 35 倍,且每兆瓦的吞吐量同樣提升了 35 倍。
一個開源項目,讓所有 CEO 都睡不著覺
主題演講的后半部分,黃仁勛拋出了一個讓全場屏息的判斷:OpenClaw,將堪比這個時代的 Linux,是這個時代的 HTML。
OpenClaw 上線僅數周,下載量和影響力已經超過了 Linux 三十年的積累,其本質上是一套智能體操作系統。它能調用大模型、管理文件、拆解任務、協調子智能體,還能發郵件、發短信,以任何模態與人溝通。
![]()
在黃仁勛看來,每一家 SaaS 公司,遲早都會變成 AgaaS 公司,也就是「Agent-as-a-Service(智能體即服務)」公司。而每一位 CEO 現在都必須回答同一個問題:你的 OpenClaw 戰略是什么?
![]()
當然,開源意味著自由,但企業更需要的是安全。這也是 OpenClaw 規模化落地前最大的障礙。
![]()
為此,英偉達聯合以 OpenClaw 創始人 Peter Steinberger 為代表的團隊,召集了一批頂級安全與計算專家,推出 NeMoClaw 參考架構。
![]()
它內置 OpenShell 技術、網絡防護機制和隱私路由能力,可以讓企業可以在自己的私有環境中安全運行智能體系統。
![]()
而支撐這套智能體生態的,是英偉達一整條開源模型產品線。
比如 Nemotron 主攻語言推理,Cosmos 聚焦世界建模,Groot 面向通用機器人,Alpha Mayo 服務自動駕駛,BioNeMo 深耕數字生物學,Earth-2 則專注 AI 物理仿真。
黃仁勛特別強調,這些模型不只是排行榜上的名字。英偉達會持續投入推進,Nemotron 3 之后有 Nemotron 4,Cosmos 1 之后有 Cosmos 2,每一代都會更強。
![]()
更重要的是,這些模型全部以基礎模型形式開放,任何企業都可以在此基礎上繼續微調和后訓練,打造專屬于自己業務場景的定制化智能。英偉達還宣布將與各地區合作伙伴協作,幫助不同國家和市場孵化本土化 AI 能力。
在臺上,黃仁勛還宣布了一份讓人眼前一亮的合作名單。Black Forest Labs、Cursor、LangChain、Mistral、Perplexity、Sarvam,以及 Mira Murati 創立的 Thinking Machines,悉數加入,共同推進 Nemotron 4 的研發。
![]()
劃重點,英偉達不甘心只做賣鏟人,更要親自下場帶頭挖金礦,更重要的是,英偉達也是在構建一個生態,一個圍繞智能體時代的完整體系。
玩家的顯卡錢,是一場長達 25 年的「眾籌」
要理解英偉達今天的恐怖統治力,黃仁勛首先把時鐘撥回了 25 年前。
那時候沒有 ChatGPT,沒有大模型,只有一群為了讓游戲畫面更流暢而瘋狂攢機的年輕人。「GeForce 是英偉達有史以來最偉大的營銷活動」,黃仁勛在臺上笑著說。
黃仁勛非常直白地承認,GeForce 就是用來吸引未來客戶的。他們在我們還買不起企業級產品的時候,通過游戲顯卡潛伏進我們的電腦。日復一日,年復一年。
![]()
也正是依靠一代代游戲玩家的「供養」,英偉達在 20 年前做出了一個當時看來堪稱瘋狂、甚至差點拖垮公司利潤的決定——研發 CUDA,并將它送到了全世界每一個開發者的桌面上。
這可以說是一個在黑暗中蟄伏的故事。連續 13 代架構,長達 20 年的死磕,英偉達徹底把 CUDA 變成了一個裝機量過億的龐然大物。
這也解釋了為什么當深度學習的「宇宙大爆炸」來臨時,Alex Krizhevsky 和 Ilya Sutskever 們環顧四周,發現除了英偉達的 GPU,他們別無他選。
![]()
Nvidia 不是碰巧站在了風口上,而是花了 20 年時間,自己造了一臺造風機。
飛輪一旦轉動,就再也停不下來了。因為在這個飛輪里,硬件只是載體,真正黏住開發者的是那成千上萬個工具、框架和開源項目。
既然當年是 GeForce 游戲顯卡把 AI 算力(CUDA)帶給了這個世界,那么十年后的今天,是時候讓徹底長大的 AI,反哺它最初的「老家」了。
![]()
黃仁勛在臺上甩出了驚艷全場的 DLSS 5。簡單來說,英偉達正在用 AI 重新發明計算機圖形學。傳統的 3D 渲染是「結構化數據」,它是死板的、百分百可控的;而生成式 AI 是「概率性計算」,它是天馬行空、極其逼真的。
以前這兩派路線完全不同,但在 DLSS 5 里,英偉達硬是把它們揉在了一起,用可控的 3D 數據打底,用生成式 AI 去腦補和渲染細節。我們看到的畫面,既不會出現 AI 經常犯的幻覺錯位,又擁有近乎現實的驚人質感。
「生成出來的世界,變得極其美麗,同時又完全受控。」
但這也不只是一幫極客為了高幀率打游戲搞出來的炫技。黃仁勛說,這種將「結構化數據」與「生成式 AI」融合的邏輯,將會在每一個行業里一遍遍重演。
![]()
「這是我最喜歡的一頁 PPT」
在演講的高潮,黃仁勛放出了一張極其復雜的架構圖,說這是他最喜歡的一頁 PPT。接著,他又半開玩笑地說,團隊屢次勸他別放這張圖,但他偏要放,「反正你們有些人也是免費進來的,這就是門票錢」。
![]()
這張「最不聽勸的 PPT」,真正揭示了英偉達接下來要吞噬的真正獵物,全球企業的數據中心。
過去,企業的數據分為兩類。
一類是結構化數據,也就是常見的數據庫 SQL、Pandas 里的那些龐大表格,它們是商業運轉的地基。另一類是非結構化數據,比如海量的 PDF、視頻、語音,占據了世界 90% 的信息,卻因為難以檢索而如同廢紙。
過去幾十年來,處理這些巨型 Excel 表格一直是 CPU 的絕對領地。當人類去查詢這些表格時,CPU 的速度勉強夠用。但黃仁勛一針見血地指出了未來的趨勢,「未來,使用這些結構化數據庫的,將是 AI Agents」。
當成千上萬個不知疲倦的 AI Agent,以遠超人類百萬倍的速度同時向數據庫發起查詢時,傳統的 CPU 計算系統連喘息的機會都沒有,只會被瞬間壓垮。
為了處理這個問題,英偉達掏出了第一把底層殺器:cuDF。它直接越過 CPU,用 GPU 的恐怖并行算力,把這群數據的處理速度拉爆。
![]()
而針對非結構化數據,英偉達掏出了第二把殺器,針對向量數據庫和非結構化數據的 cuVS。有了這兩個底層庫,英偉達實際上是捏住了全球數據處理的咽喉,它正在用 AI 的方式,重新定義企業到底該怎么處理數據。
兩個工具庫的效果也是相當明顯。黃仁勛舉了非常多合作伙伴的例子,其中提到雀巢公司每天要處理覆蓋 185 個國家的龐大供應鏈數據,在換上英偉達加速的 IBM Watsonx.data 后,速度飆升了 5 倍,成本卻驟降了 83%。
![]()
這就是「加速計算」的恐怖之處。當速度實現了幾個數量級的躍升,成本就會呈斷崖式下跌,新的商業模式就會在此刻涌現。
黃仁勛的演講進行到這里,滿嘴都還是「算法」、「庫(Libraries)」和「數據幀」,他直言「英偉達是一家算法公司。」
英偉達將自己的算法庫深度嵌入每一家云端,客戶為了用 Nvidia 的算力和框架,才會去購買云服務。這也是為什么幾乎世界上所有的云服務巨頭——Google Cloud、AWS、微軟 Azure、Oracle,都得排著隊,把英偉達的服務請進自己的機房。
![]()
曾經呼風喚雨的云廠商,在加速計算時代,似乎都正悄然淪為英偉達龐大生態的「底層基礎設施」和「分銷渠道」。
英偉達為什么能做到這一切?黃仁勛給出了一個極度反常識的定義,英偉達是世界上第一家「垂直整合,卻又水平開放」的公司。
向下,它自己造芯片、造系統;向上,它懂每一個行業的應用場景。
金融界的量化交易員在用它,醫療行業的醫藥研發在用它,連電信行業那個只會發射信號的基站,在未來也會變成運行 AI 算法的邊緣計算節點。
英偉達甚至還推出了機密計算(Confidential Computing),讓極其敏感的企業數據和模型可以在完全隔離的環境下運行,連操作員都看不到。這直接打消了巨頭們擁抱 AI 的最后一點顧慮。
![]()
它把自己封裝成一個個底層算法庫,然后像水和電一樣,悄無聲息地接入了所有人的基礎設施;看似把所有的利潤都分給了生態伙伴,但實際上,英偉達已經牢牢掌握了整個 AI 時代的命脈。
1 萬億美元,而且還會供不應求
根據黃仁勛的判斷,到 2027 年底,其 Blackwell 和 Rubin 芯片將至少創造 1 萬億美元收入。,而且這還是保守估計,實際計算需求會遠超這個數字。
![]()
這個數字從何而來?答案藏在過去一年英偉達做的那件最重要的事里——AI 推理。
黃仁勛直言,很多人覺得推理很容易,但事實恰恰相反。
高難度推理是 AI 領域最難的事,也是最重要的事,因為它直接帶來收入的增長。為此,英偉達在 Hopper 架構巔峰期做出大膽決定,徹底改變架構,打造出 NVLink 72,引入 NVFP4 精度格式,配合 Dynamo、TensorRT-LLM 及全套新算法,還專門建造了超級計算機來優化整套技術棧。
英偉達押注的結果,遠超所有人的預期。
![]()
黃仁勛曾宣稱 Grace Blackwell NVLink 72 每瓦性能提升 35 倍,當時沒人相信他。后來 SemiAnalysis 發布評測報告,分析師 Dylan Patel 說黃仁勛說得太保守了,實際提升是 50 倍。
![]()
黃仁勛打趣道「Monkey King」「Token King」。
按摩爾定律,一代產品通常只能帶來約 1.5 倍提升,沒人預料到這次會是 50 倍。
性能提升之后,擺在面前的是另一個問題。一座 1 吉瓦數據中心,按 15 年攤銷,建造成本就高達 400 億美元,設備還沒放進去。在這樣的投入規模下,放進工廠里的計算系統必須是全球最好的,否則每一瓦浪費的電力都是真實流失的收入。
黃仁勛坦言,全球 AI 工廠里正有大量電力被白白浪費。
為此,英偉達發布了 NVIDIA DSX 平臺,基于 Omniverse 數字孿生技術,讓工程師在真正動工之前,先在虛擬空間里把整座 AI 工廠仿真一遍,從散熱到電網,全部模擬清楚。
配合 Max-Q 技術,系統可以在功耗與算力之間實時動態調節。
![]()
黃仁勛說,這里面至少還藏著兩倍的優化空間。同一套硬件,英偉達更新算法與軟件后,Fireworks 等服務商的 token 生成速度從每秒 700 個躍升至接近 5000 個,提升 7 倍。這就是「極致協同設計」的真實含義。
過去數據中心存放文件,現在它生產 token。土地、電力、機房空間決定了工廠上限,而架構優劣決定了產出多少。黃仁勛說,未來每一家公司都會認真思考自己 token 工廠的效率問題,因為算力,就是收入本身。
更重要的是,地球上的 AI 工廠還沒建完,英偉達已經把目光投向了太空。
英偉達 Thor 芯片已通過抗輻射認證,率先應用于衛星之上。英偉達正與合作伙伴聯合研發名為NVIDIA Space-1 Vera Rubin的新型計算機,目標是直接在太空中建設數據中心。
![]()
太空沒有空氣,無法對流散熱,散熱是一道極其棘手的工程難題。黃仁勛坦承這件事非常復雜,但他相信英偉達有足夠優秀的工程師來攻克它。從地面到軌道,英偉達算力擴張的路線,仍在持續。
自動駕駛的 ChatGPT 時刻,已經到來
物理 AI 是未來十年最重要的課題,而黃仁勛用一句話宣告,自動駕駛的 ChatGPT 時刻,已經到來。
英偉達 RoboTaxi Ready 平臺此次新增四位重量級伙伴:比亞迪、吉利、五十鈴、日產,攜手打造 L4 級自動駕駛汽車。
這四家車企每年合計生產約 1800 萬輛汽車,體量驚人。加上此前已加入的梅賽德斯、豐田和通用,英偉達的自動駕駛版圖已覆蓋全球最重要的一批整車制造商。
![]()
英偉達還與 Uber 簽署合作協議,計劃將具備 RoboTaxi Ready(無人出租車就緒)能力的車輛部署至多個城市,并直接接入 Uber 的全球出行網絡。
在工業機器人領域,英偉達與 ABB、Universal Robots、庫卡等頭部企業展開合作,將物理 AI 模型集成至仿真系統,推動機器人大規模進入制造產線。卡特彼勒的加入,意味著重型工程機械也開始走向智能化。
![]()
主題演講的最后,依舊是經典的機器人環節。
近期,《冰雪奇緣》的雪寶機器人已經現身迪士尼海外游樂園,而這一次,它也邁著憨態可掬的步伐登上 GTC 2026 的舞臺,和黃仁勛有來有往地對話,動作自然,反應流暢。
![]()
它的肚子里裝著英偉達 Jetson 計算機,這是整套系統的大腦。它的步態和動作,全部在 Omniverse 虛擬環境中完成訓練,靠的是由英偉達、迪士尼和 Google DeepMind 三方聯合研發的 Newton 物理引擎,運行于英偉達 Warp 之上。
正是這套物理仿真系統,讓雪寶在進入真實世界之前,就已經充分適應了現實物理規律。黃仁勛說,未來的迪士尼樂園所有角色都將擁有真正的智能,在園區里自由走動,與每一位游客展開真實的互動。
![]()
演講開始的時候,黃仁勛說,我要提醒你們,這是一個技術大會。我們將要談論技術,談論平臺,最重要的是,我們要談論生態系統。
生態系統?他實在太謙虛了,用生態帝國也不為過,黃仁勛曾經用一塊五層蛋糕來描述 AI 產業的結構:最底層是能源和芯片,往上是基礎設施、模型,最頂層是應用。
每一層都不可或缺。這個比喻聽起來像是在描述一個分工清晰、各司其職的產業格局。但當你把這塊蛋糕從底看到頂,會發現每一層里都有英偉達的手筆。
從最早「潛伏」在玩家機箱里的顯卡,到主宰全球云廠商的底層框架;從太空里的抗輻射數據中心,到迪士尼樂園里和我們談笑風生的機器玩偶。
英偉達用 20 年時間造了一臺造風機,如今這臺機器已經化身為一臺永不停歇的 Token 生產廠。在這個工廠里,算力即權力,生態即壁壘。
當所有的企業、用戶都在為如何落地 AI 焦慮時,黃仁勛已經悄悄把通往 Agent 時代的門票,塞進了世界上每一臺服務器的咽喉。
這場關于未來 AI 的賭局,英偉達不僅既做莊家又做玩家,它甚至要把牌桌都買下來了。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.