![]()
拉斯維加斯的會展中心在CES落幕后,燈光熄滅、人群散去。但對全球AI產(chǎn)業(yè)而言,一場更為漫長、也更為昂貴的競賽才剛剛進入關鍵階段。
今年的CES,依然是英偉達首席執(zhí)行官黃仁勛站在聚光燈的中央,身著標志性黑色皮衣的他,發(fā)布了全新的Vera Rubin AI GPU平臺,并給出了一組足以震動資本市場的數(shù)據(jù):相較前一代Blackwell架構,新平臺在訓練性能上提升3.5倍,而推理成本則被壓縮至原來的十分之一。
但是這一次,黃仁勛帶來的不只是“更快的芯片”。在出席聯(lián)想集團舉辦的Tech World大會時,黃仁勛為聯(lián)想集團董事長楊元慶描繪了一個更宏大的圖景——在過去三十年里,全球IT產(chǎn)業(yè)已經(jīng)累計投入約10萬至15萬億美元,構建起一整套以通用計算和集中式數(shù)據(jù)中心為核心的基礎設施體系。但這套體系,正在系統(tǒng)性地失效。“如今都需要被重新發(fā)明、重新現(xiàn)代化。這正是為什么我們會看到眼前這些萬億美元級別的產(chǎn)業(yè)機會。”
![]()
AMD首席執(zhí)行官蘇姿豐用一臺重達7000磅、布滿液冷管線的Helios機架,向外界傳遞了一個一致的方向:當前我們正處于算力新時代的起始階段……在這個時代,AI將無處不在,并廣泛地存在于數(shù)據(jù)中心、工廠、醫(yī)院、個人電腦以及邊緣設備之中。
黃仁勛稱這次變革背后的本質是“我們正在經(jīng)歷一次平臺級的技術遷移。”
在過去的三十多年里,IT 產(chǎn)業(yè)幾乎每隔十年就會經(jīng)歷一次類似的結構性躍遷——從 PC 到互聯(lián)網(wǎng),從互聯(lián)網(wǎng)到云計算,再從云計算到移動計算。在這三次遷移中,始終圍繞CPU和傳統(tǒng)代碼構建計算生態(tài)。
黃仁勛稱,在這次“全新的平臺”中,應用將圍繞AI構建。這就要求計算核心從CPU轉向GPU,計算邏輯從“執(zhí)行指令”轉向“自主推理”。然而,整個IT產(chǎn)業(yè)過去三十年建立的基礎設施,都是為“存儲和檢索信息”設計的,而不是為“自主推理和決策”設計的。傳統(tǒng)數(shù)據(jù)中心的CPU集群,面對 AI 推理所需的海量非結構化數(shù)據(jù)(圖像、語音、文本)和復雜神經(jīng)網(wǎng)絡計算,性能不足且成本高昂。
尤其是當AI從模型競賽走向生產(chǎn)系統(tǒng),算力的價值不再體現(xiàn)在峰值性能,而體現(xiàn)在穩(wěn)定性、成本結構與可持續(xù)性上。推理市場正迅速擴張,并有望在未來幾年內(nèi)超越訓練市場,成為AI經(jīng)濟的主戰(zhàn)場。
兩位芯片巨頭在同一座城市、同一時間、用不同措辭表達的,其實是同一個判斷:AI基礎設施的上半場已經(jīng)接近尾聲,對于企業(yè)來講下半場的競爭,將遠比“誰擁有最多GPU”復雜得多。
AI基建下半場從“訓練”到“推理”
在過去三年里,全球科技資本的投入方向高度集中。大模型訓練成為AI競賽的核心指標,算力的價值被簡化為“誰能堆出更大的GPU集群”。OpenAI、微軟、谷歌、Meta等公司爭相擴建超級數(shù)據(jù)中心,英偉達的高端GPU幾乎成為一種稀缺資源,其市值也隨之被推至歷史高位。
這一階段的特征是高度集中、資本密集,以及明確的技術目標:訓練出能力更強的通用大模型。
![]()
但進入2025年后,風向開始發(fā)生變化。華爾街的耐心正在耗盡——投資者發(fā)現(xiàn),盡管巨頭們投入數(shù)千億美元訓練大模型,但真正能商業(yè)化落地、產(chǎn)生穩(wěn)定現(xiàn)金流的應用寥寥無幾。更重要的是,基礎模型的迭代速度開始放緩。GPT-5 的發(fā)布雖然引發(fā)關注,但相較于 GPT-4,性能提升更多是“量變”而非“質變”。大模型的訓練已經(jīng)進入“邊際效益遞減”階段。
企業(yè)不再僅僅滿足于展示一個聰明的“聊天機器人”,他們需要AI去工作——去優(yōu)化供應鏈調度、提升生產(chǎn)效率,去實時處理數(shù)百萬份保險理賠,去毫秒級控制高速公路上的自動駕駛車隊,去每時每刻響應全球數(shù)十億智能體的請求。
市場迫切需要AI從“展示能力”的階段,邁入“承擔責任”的階段。而在這一階段,決定成本結構和可擴展性的,不再是訓練,而是推理(Inference),即 AI 模型在獲得訓練后,根據(jù)實時數(shù)據(jù)進行決策和響應的過程。
德勤在其《2026技術趨勢》報告中指出,隨著AI從實驗室走向企業(yè)生產(chǎn)環(huán)境,市場正遭遇一種全新的“推理經(jīng)濟學”挑戰(zhàn)。盡管單次推理的單位成本在快速下降,但由于使用頻率和復雜度急劇上升,總體算力需求反而呈指數(shù)級增長。
這一趨勢在代理式AI(Agentic AI)和物理AI(Physical AI)身上體現(xiàn)得尤為明顯。
代理AI與物理AI重塑算力基建
代理式AI的本質,是將AI從“響應者”轉變?yōu)椤皥?zhí)行者”。它不再是“一問一答”的聊天機器人,而是能夠自主調用工具、多步執(zhí)行任務的“數(shù)字員工”。一個看似簡單的任務指令,背后可能觸發(fā)數(shù)百次推理調用:調用工具、拆解步驟、反復校驗、再執(zhí)行。這種多步、長鏈路的推理過程,往往伴隨著大量“隱形Token”的生成,其算力消耗遠高于傳統(tǒng)問答式模型。
Gartner預計,到2028年,約33%的企業(yè)軟件將內(nèi)置代理AI功能,而這一比例在2024年尚不足1%。至少有15% 的日常業(yè)務決策將由代理AI 自主完成。
物理AI對算力的要求則更為嚴苛。當AI被嵌入機器人、自動駕駛系統(tǒng)或工業(yè)控制設備時,推理必須是實時、低延遲且高度可靠的。這直接推動算力從集中式云數(shù)據(jù)中心,向邊緣側和本地部署遷移。
本屆CES,黃仁勛喊出了“物理AI的Chatgpt時刻即將到來”。英偉達在CES上展示的Project GR00T和Cosmos模型,正是試圖為機器人構建一套“理解并執(zhí)行物理世界規(guī)則”的通用推理框架。這類應用的共同特點是:推理必須靠近數(shù)據(jù)源,而不是依賴遠程云端。
![]()
工業(yè)領域的物理 AI 同樣對實時性要求極高。假設一座工廠希望進行智能化改造,他的需求是實時響應生產(chǎn)線上的突發(fā)情況——比如檢測到零件缺陷時,立即調整加工參數(shù);遇到設備故障時,自主切換備用生產(chǎn)線。這同樣要求推理算力必須靠近生產(chǎn)現(xiàn)場(即邊緣計算),否則數(shù)據(jù)傳輸?shù)难舆t會導致生產(chǎn)停滯。物理 AI 的核心是“感知-推理- 行動”的閉環(huán),而推理是其中最關鍵的環(huán)節(jié)。如果推理不能實時完成,整個閉環(huán)就會斷裂,AI 也就失去了在物理世界應用的價值。
至此,一個清晰的趨勢已經(jīng)浮現(xiàn):AI算力將從“集中式訓練”向“分布式推理”傾斜,AI基礎設施不僅僅是昂貴的云端數(shù)據(jù)中心,還包括從邊緣到終端的整個布局。
而隨著代理式AI和物理AI的普及,算力需求不再呈線性增長。這也就不難理解,為何AMD掌門人蘇姿豐的斷言——“未來幾年內(nèi),全球計算能力可能需要提升100倍。”
盡管對于趨勢的預期已經(jīng)非常明確,但代理AI的生產(chǎn)化部署并不順利。德勤調查顯示,2025年雖然有38%的企業(yè)在進行代理試點,但僅有11%的企業(yè)在生產(chǎn)環(huán)境中使用這些系統(tǒng)。高昂的成本是最為重要的原因。
從技術角度看,推理成本正在迅速下降。過去兩年,AI推理的單位Token成本已經(jīng)暴跌280倍——這得益于芯片架構創(chuàng)新、軟件優(yōu)化和規(guī)模效應。但企業(yè)的AI支出非但沒減少,反而因用量爆發(fā)式增長陷入失控。這一現(xiàn)象在經(jīng)濟學中被稱為“杰文斯悖論” :技術的提效降低了資源的使用成本,這反而刺激了需求的激增,最終導致資源總消耗量的上升。
對于率先大規(guī)模部署AI的企業(yè)而言,這一悖論已經(jīng)變得異常現(xiàn)實。部分公司在公有云上的AI賬單已攀升至每月數(shù)千萬美元。當AI工作負載從偶發(fā)試驗變?yōu)槿旌蜻\行的核心業(yè)務流程時,按量計費的云模式開始在經(jīng)濟上變得不可持續(xù)。
更重要的是,數(shù)據(jù)合規(guī)、安全和商業(yè)機密的考量,使得許多企業(yè)無法將核心數(shù)據(jù)完全托付給公有云。這迫使它們重新評估計算架構,從“云優(yōu)先”轉向“混合計算”。
這一轉變,并非簡單的成本優(yōu)化,而是對過去三十年IT架構邏輯的根本修正——也正是黃仁勛所指的“重新發(fā)明計算基礎設施”。
芯片巨頭的答案與一個被低估的角色
英偉達與AMD給出的解決方案,路徑不同,但目標一致:在推理時代,將“每Token成本”和能耗壓縮到足夠低。
英偉達的Rubin平臺通過Vera CPU來處理復雜邏輯,讓GPU專注于高效的矩陣運算;AMD的Helios機架則以超大顯存為核心賣點,其搭載的MI455X芯片擁有驚人432GB HBM4內(nèi)存,試圖用更少的卡承載更多并發(fā)推理任務。
但在這場競爭中,一個共同點逐漸顯現(xiàn):無論是哪一種方案,都高度依賴于物理層面的工程能力。
推理時代的芯片,功率密度正在突破傳統(tǒng)數(shù)據(jù)中心的極限。單機架超過100kW的功耗,使得風冷方案難以為繼。散熱不再是配套問題,而是決定算力能否兌現(xiàn)的前提條件。如果散熱搞不定,再先進的芯片也只能降頻運行,變成昂貴的廢鐵。
這正是聯(lián)想在產(chǎn)業(yè)鏈中角色被重新評估的原因。
作為少數(shù)能夠同時與英偉達和AMD展開深度合作的企業(yè),聯(lián)想是這兩大芯片巨頭戰(zhàn)略布局中不可或缺的關鍵伙伴,也將成為全球IT基建改造的重要參與者。
![]()
在聯(lián)想Tech World的舞臺上,聯(lián)想集團CEO楊元慶先是與黃仁勛共同發(fā)布了基于Rubin平臺的“聯(lián)想人工智能云超級工廠”;轉過身,又與蘇姿豐發(fā)布了新一代推理服務器,蘇姿豐還宣布聯(lián)想將是Helios平臺的首發(fā)合作伙伴之一。
原因并不復雜。在推理成為核心負載后,AI基礎設施的難點從“買到芯片”,轉向“部署、散熱、運維和規(guī)模化交付”。
“很多人并不知道,聯(lián)想構建了全球最多的超級計算機。全球Top 500超級計算機中,有三分之一由聯(lián)想打造。”黃仁勛稱,聯(lián)想所具備的不僅是制造能力,更是構建、部署并在超算級數(shù)據(jù)中心中交付復雜系統(tǒng)的綜合能力。這是促成雙方合作的重要原因所在。
傳統(tǒng)企業(yè)數(shù)據(jù)中心是為信息存儲與檢索設計的,而AI時代的企業(yè),需要的不只是幾臺服務器,更是能幫他們設計、建設、運營復雜“AI工廠”的全流程能力。這為聯(lián)想這類混合式AI基礎設施提供商打開了巨大市場空間,也是聯(lián)想與英偉達攜手推出“聯(lián)想人工智能云超級工廠”的核心原因。
此外,聯(lián)想在液冷技術上的長期投入,使其在這一階段具備了罕見的先發(fā)優(yōu)勢。
其第六代Neptune海神液冷方案,允許在45°C條件下運行數(shù)據(jù)中心,無需傳統(tǒng)冷水機組。這不僅降低了部署復雜度,也為企業(yè)節(jié)省了可觀的電力成本。在推理成本高度敏感的環(huán)境中,能耗的每一次下降,都會直接反映為財務回報。
黃仁勛的雄心聯(lián)想的方案
對于聯(lián)想來講,黃仁勛畫的這個“大餅”的確是個“好干糧”——這場IT基礎設施重構浪潮帶來的絕非短期訂單增長,而是深度落地其主張的混合式AI戰(zhàn)略的關鍵一步,尤其對其基礎設施方案集團(ISG)業(yè)務具有決定性的戰(zhàn)略價值,這一業(yè)務能否快速扭虧一直是資本市場關注的焦點。
面對即將爆發(fā)的AI推理時代的到來,ISG渴求抓住機遇的愿望是迫切的。
非常重要的一個表現(xiàn)就是,聯(lián)想ISG在此次Tech World上一口氣發(fā)布了三款應對推理算力需求的產(chǎn)品:除了與AMD合作的AI推理服務器SR675i,還有AI推理服務器SR650i和邊緣計算服務器SE455i。
![]()
正如我們前文所分析的,企業(yè)需要的不再是孤立的硬件設備,而是“芯片+工程部署+散熱技術+運維服務”的一體化解決方案,所以其方案服務業(yè)務(SSG)也將因此受益。
借助與英偉達、AMD 的深度綁定,聯(lián)想得以優(yōu)先將全球最先進的芯片技術融入自身的硬件產(chǎn)品與解決方案,形成“芯片巨頭技術輸出+聯(lián)想工程化落地”的互補模式,既提升了ISG產(chǎn)品的技術壁壘與溢價能力,更使其從傳統(tǒng)硬件供應商升級為AI基礎設施全生命周期服務商,徹底打開高端企業(yè)級市場的增長空間。
聯(lián)想與英偉達、AMD 的戰(zhàn)略伙伴關系,本質上是生態(tài)共贏的必然選擇。對芯片巨頭而言,聯(lián)想的價值不僅是“首發(fā)合作伙伴”的渠道優(yōu)勢,更是其技術落地的“關鍵轉換器”—— 英偉達的Rubin平臺、AMD的Helios機架,借助聯(lián)想的超算級部署能力與規(guī)模化交付網(wǎng)絡,可以更快的轉化為企業(yè)可直接使用的生產(chǎn)力工具;而對聯(lián)想而言,綁定全球頂尖芯片廠商,意味著 ISG 業(yè)務能持續(xù)獲得核心技術賦能,始終站在AI基礎設施技術迭代的最前沿,同時借助芯片巨頭的品牌勢能,快速建立在AI推理領域的行業(yè)話語權。
這種 “技術互補、生態(tài)共生” 的伙伴關系,讓聯(lián)想在激烈的市場競爭中占據(jù)了不可替代的生態(tài)位,也讓ISG業(yè)務得以借助這場萬億美元級別的產(chǎn)業(yè)機遇,提升整體盈利能力。
一場“重新發(fā)明”IT基建的競賽
CES 2026所揭示的,不是一輪短期的產(chǎn)品周期,而是一場橫跨十年的IT基礎設施重構。
過去三十年,全球 IT 產(chǎn)業(yè)累計投入的10–15萬億美元基礎設施,正在被逐一替換為適應AI推理需求的新型硬件、軟件和服務。這一過程,就像工業(yè)革命時期用電力取代蒸汽動力,信息革命時期用互聯(lián)網(wǎng)取代電報電話,將徹底改變?nèi)祟惿鐣纳a(chǎn)方式和生活方式。
對于企業(yè)而言,這場重構是一次“生死抉擇”。那些能夠快速搭建高效、安全、低成本的推理基礎設施的企業(yè),將在智能化浪潮中搶占先機,實現(xiàn)生產(chǎn)力的跨越式提升;而那些固守傳統(tǒng)IT架構、錯失推理時代機遇的企業(yè),將逐漸被市場淘汰。正如楊元慶所言:“新一輪 AI 推理浪潮已經(jīng)到來,誰能將智能部署到本地、邊緣和用戶端,讓智能觸手可及,誰就能在未來的競爭中活得更好。”
對于科技巨頭而言,這場重構是一場“話語權之爭”。英偉達試圖通過“芯片+生態(tài)” 的閉環(huán),壟斷推理算力的核心技術;AMD試圖通過“開放+差異化”,在企業(yè)級市場撕開缺口;聯(lián)想則憑借“物理基礎設施+全流程服務”,成為連接芯片廠商和客戶的關鍵樞紐。
在這一過程中,真正的贏家,未必是發(fā)布會上最耀眼的那家公司,而是那些能夠將算力轉化為可復制、可運營、可盈利基礎設施的參與者。這場萬億美元的基建重構浪潮,注定將充滿競爭與合作、創(chuàng)新與顛覆。
正如黃仁勛描繪的,過去三十年的計算體系正在走向終點。而下一套體系的建設,才剛剛開始。
CES2026已落下帷幕(1月6日-1月9日)
雷科技史上最大規(guī)模CES報道團,已陸續(xù)啟程回國。雷科技CES2026報道專題已推送超過55+內(nèi)容(最終會超過65+)以及10+短視頻,涵蓋幾乎所有參展CES2026的頭部品牌(以中美韓日為主),涉及AI硬件、AI芯片、AI眼鏡、具身智能、電視顯示、智能清潔、智能影像、AI家電、AI健康、AI音頻、AI汽車、AI出行、智能家居、AI PC、AI手機等核心領域的探展、對話、新品、觀察等內(nèi)容。
相關內(nèi)容除了自有渠道外,還被騰訊、網(wǎng)易、頭條、百度、36kr等平臺重點推薦。您可以在主流平臺搜索“雷科技 CES”回顧CES2026的核心內(nèi)容。
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.