3月16日至19日,英偉達(NVIDIA)在加州圣何塞舉辦了年度AI技術盛會GTC2026。本屆GTC以“Agent應用爆發”作為最強音,官方預示著AI已經從“會對話”進入了“會做事”的深度實用階段。這一轉變不僅倒逼了算力基建的全面升級,也引發了模型架構和行業生態的深刻變革。
據英偉達CEO黃仁勛在本次大會上的主題演講指出,過去兩年里,AI計算需求激增了百萬倍,特別是推理階段(Inference)對算力的消耗遠超訓練階段。他預測,2027年AI算力需求將達到1萬億美元。這意味著,曾經以“訓練”為王的算力市場,正迅速轉向“推理”主導。
Agent時代的來臨與算力新需求
業界分析認為,2025年是Agent應用的元年,而2026年則是其大爆發之年。在此背景下,黃仁勛指出,AI已從感知、生成階段進入推理階段。推理拐點已至,算力需求不再僅僅是堆疊通用算力,而是要解決“算力夠不夠劃算、賬能不能算得清”的商業痛點。
![]()
當前的趨勢表明,模型即應用,算力即模型。隨著Agent應用場景的爆發,算力互聯成為明確趨勢。大參數模型、Agent暴增以及信息量爆炸,正大幅拉動存儲和推理算力的需求。AI推理成本雖然在持續下降,但對于大規模Agent應用而言,單次推理的計算量呈爆炸式增長。
Vera Rubin與Groq LPU:硬件革新的核心
為了應對這股算力洪流,英偉達發布了多項關鍵硬件技術。最引人注目的是Vera Rubin平臺和Groq LPU芯片。Vera Rubin平臺集成了72顆Rubin GPU和36顆Vera CPU,旨在處理大模型的推理任務,推理效率提升10倍,單Token成本降至十分之一。同時,英偉達推出的Groq 3 LPU芯片填補了GPU推理短板,提供了超低延遲的推理加速能力。
![]()
在液冷領域,隨著LPU推理芯片的熱設計功耗需求增加,液冷系統從“單板級配套”升級為“整機架級標配”。每顆LPU芯片均需獨立液冷方案,這直接推動了液冷系統價值量的進一步提升。
光互連技術也深度融入了芯片架構。英偉達在下一代Feynman架構中引入光通信技術,為AI大模型提供了終極算力底座。
AI工廠與Agent革命:全棧生態的重構
本次GTC還推出了AI工廠操作系統Dynamo 1.0和NemoClaw平臺,旨在提升資源利用率并支持個人AI智能體。黃仁勛提出的“AI五層蛋糕”模型,標志著AI已經形成了完整的產業技術棧,從硬件基礎設施到軟件生態再到終端應用,形成了從“會感知”到“會執行”的閉環。
![]()
在垂直行業方面,AI已滲透到自動駕駛、金融服務、醫療健康、工業制造、娛樂游戲、機器人以及電信基站等領域。尤其是具身智能和自動駕駛領域,隨著L4級自動駕駛的規模化路徑逐步清晰,AI算力的需求更是呈現爆炸式增長。
結語
GTC2026不僅是一場技術發布會,更是AI進入商業化深水區的宣言。隨著Agent應用的爆發和推理算力的倒逼,英偉達等芯片巨頭正從單純的算力供應商轉變為AI基礎設施的全棧提供者。這場算力風暴,正重塑著整個科技產業的版圖。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.