337p人体粉嫩胞高清图片,97人妻精品一区二区三区在线 ,日本少妇自慰免费完整版,99精品国产福久久久久久,久久精品国产亚洲av热一区,国产aaaaaa一级毛片,国产99久久九九精品无码,久久精品国产亚洲AV成人公司
網易首頁 > 網易號 > 正文 申請入駐

CES2026黃仁勛: 物理AI進入“ChatGPT 時刻”倒計時 | 前沿在線

0
分享至



在 CES 2026 的舞臺上,黃仁勛并沒有急于用某一款產品“點燃情緒”。

這場長時間的主題演講,更像一次系統性的時代復盤與方向校準:從 AI 平臺的根本性轉變,到 Agent 架構、物理 AI、自動駕駛、機器人,再到算力、網絡、存儲與能源效率,英偉達試圖回答的不是“下一代芯片有多強”,而是——未來十年,計算與智能將如何被重新組織。



(完整實錄見文末)

編輯:前沿在線 編輯部

拉斯維加斯,新年快樂。

NVIDIA 創始人兼 CEO 黃仁勛一上臺就把 CES 的現場氛圍點燃:這個可容納 3000 人的禮堂坐滿了人,外場還有 2000 人圍觀,甚至樓上也擠滿了觀眾。



黃仁勛笑稱,自己“帶了 15 公斤材料要講”,而全世界將有數以百萬計的人通過直播一起進入 2026 的開年第一場科技主題演講。

但這場演講的核心并不是“熱鬧”,而是一個更明確的信號:計算產業又一次來到平臺重置點,而且這一次是“雙平臺轉換”同時發生。



每 10~15 年一次平臺重置:這一次,AI 讓“軟件本身”變了

黃仁勛把計算產業的歷史復盤了一遍:從主機到 PC、PC 到互聯網、互聯網到云、云到移動……每一次平臺轉換,都會帶來一次應用世界的重寫。

而今天發生的變化更徹底:不僅平臺在變,應用的構建方式也在變



過去我們寫軟件、編譯軟件、讓軟件運行在 CPU 上;今天我們在 GPU 上運行模型,應用不再是“預先寫好的邏輯”,而是能理解上下文、并在每一次交互中從頭生成內容——生成每一個像素、每一個 token。

黃仁勛用“計算五層堆棧”來概括這種變化:從硬件到系統到軟件再到應用,整個堆棧正在被 AI 重新塑形。這意味著過去十多年累計的、以“經典計算方式”為基礎的巨大技術資產——他用“十萬億美元級別”來形容——正在被整體現代化。

錢從哪里來?黃仁勛給出的答案很直接:來自各行各業的研發預算遷移。經典方法的預算正在轉向 AI 方法,這就是這波 AI 現代化的燃料。



從 ChatGPT 到“推理模型”,再到 Agent:2025 的關鍵轉折已經發生

黃仁勛把 2025 形容為“不可思議的一年”,因為一切都像同時發生。

他回顧了幾個關鍵節點:2015 年左右,語言模型開始真正產生影響;

2017 年 Transformer 出現;

2022 年“ChatGPT 時刻”讓世界被喚醒;

而一年后,一個重要的新階段到來——推理模型開始成為主角。



他重點提到一種思路:測試時擴展(test-time scaling)。直白說,就是AI 不僅在訓練前學習、訓練后再用強化學習學技能;在推理階段,它也需要“實時思考”——思考越多、計算越大、答案通常越好。

緊接著,2024~2025 年,代理系統(Agent)開始遍地開花:它能查找信息、做研究、使用工具、規劃未來、模擬結果,開始解決“以前不可能由一個模型獨立完成”的重要問題。

黃仁勛還點名了一個“他很喜歡的代理工具”:Cursor。他說它徹底改變了 NVIDIA 內部的軟件編程方式。



AI不只有語言:物理 AI、世界模型與“開放模型的大爆發”

黃仁勛強調,大語言模型并不是宇宙中唯一重要的信息形態。只要世界里存在結構,就可以訓練一種“語言模型式”的系統去理解它的表示并形成智能。

其中最關鍵的一類,是理解自然規律的物理 AI:它不僅要理解物理定律,還要能與物理世界互動。



而 2025 年另一個最重要的事件,是開放模型的進步與爆發。黃仁勛認為:一旦開源、開放創新全面啟動,智能會在任何地方激增——每個公司、每個行業、每個國家,都能同時被激活。

他特別提到一個讓世界震驚的開放推理系統進展,并用“它激活了整個運動”來形容開源推理浪潮的引爆效應。

在他看來,開放模型已經逼近前沿:也許仍落后幾個月,但每隔幾個月就會出現新一代進展,下載量呈爆炸式增長——因為創業公司、研究者、學生、甚至國家都想參與這場革命。



NVIDIA 為什么自己建 AI 超算:DGX Cloud、開源模型與Nemo 全家桶

黃仁勛提到,幾年前 NVIDIA 開始構建并運營自己的 AI 超級計算機體系(DGX Cloud)。外界常問:你們要做云嗎?他的回答是否定的——它是為 NVIDIA 自己而建,用來做前沿模型研發。



他舉了很多例子:數字生物學、蛋白質結構理解與生成、地球與天氣預測相關模型、以及一些“能長時間思考或快速思考”的新架構探索。

更關鍵的是,他強調NVIDIA 不只是開源模型,還開源訓練這些模型的一套體系:包括用于數據處理、數據生成、訓練、評估、護欄到部署的生命周期管理庫——他稱之為 Nemo 系列庫,并延展到物理、醫療、生物等不同領域版本。



他把 NVIDIA 定位成一種“前沿 AI 模型構建者”,并強調他們以“盡可能開放”的方式構建,讓每家公司、每個行業、每個國家都能參與 AI 革命。



Agent 的真正形態:多模型、多云、混合部署,以及“意圖路由器”

黃仁勛把“現代 AI 應用的基本架構”講得非常直白:未來的 AI 應用天然就是多模態(語音、圖像、文字、視頻、3D、甚至蛋白質),也天然是多模型的——因為不同任務需要不同模型。



因此,它也必然是多云的、混合云的:有的模型在云端,有的要跑在企業內網,有的要在邊緣設備上,甚至要在醫院、基站或機器人本體旁邊跑,以獲得實時數據與低延遲。

在這個框架里,他提出一個關鍵組件:基于意圖的模型路由器。路由器像一個“經理”,決定哪個任務該調用哪個模型:該留在本地執行的就留在本地,需要最強前沿模型的再去調用云端。



他順勢給了一個輕量但完整的示例:做一個個人助理,處理日歷、郵件、待辦事項,甚至連接家里的設備。為了保護隱私,郵件相關任務可以調用本地運行的開放模型;其它任務再調用前沿模型 API。



現場還演示了一個“會說話的小機器人助理”,能把待辦事項同步給 Jensen,能把草圖生成建筑渲染并做視頻導覽,還能遠程看家、提醒寵物不要上沙發。

黃仁勛用一句話概括這種震撼感:幾年之前這幾乎不可想象,而現在“已經變得微不足道”。



他隨后點名了多家企業平臺合作,核心意思是:這種 Agent 架構不僅改變開發方式,也將成為企業平臺的全新交互界面——從“填表格、點按鈕”轉向“像與人對話那樣使用系統”。



下一站:物理 AI。三臺計算機、Omniverse、Isaac,以及 Cosmos 的合成數據路線

如果說 Agent 是“軟件世界的重構”,那黃仁勛認為,物理 AI將把 AI 從屏幕帶進真實世界。

他強調,物理 AI 的難點在于“常識”——物體恒常性、因果關系、摩擦力與重力、慣性……對孩子是常識,對 AI 卻是未知。要讓 AI 學會這些規律,必須構建一整套系統。



他用“三臺計算機”描述物理 AI 的基礎架構:一臺用于訓練,一臺用于推理部署,還有一臺專門用于模擬——因為沒有模擬,就無法評估動作與世界反應的一致性,數據也永遠不夠。

在 NVIDIA 的體系里,模擬是核心:Omniverse 是數字孿生與基于物理的仿真世界;Isaac Sim / Isaac Lab 是機器人學習與訓練的關鍵環境;而數據上最大的突破,是把計算變成數據:通過基于物理規律的合成數據生成,規模化制造訓練樣本,覆蓋長尾與邊緣情況。



黃仁勛在演講中拋出了一個更強的判斷:物理 AI 的 ChatGPT 時刻即將到來。

因為現實世界的數據收集太慢、太貴、永遠不夠,答案只能是合成數據,而這一切在 Cosmos 上開始成型。



自動駕駛的“推理 AI”:AlphaMyo 與端到端訓練、可解釋駕駛

演講的另一條重要線索,是自動駕駛。



黃仁勛宣布了AlphaMyo,強調它是端到端訓練的自動駕駛 AI:從攝像頭輸入到控制輸出,訓練數據包含人類示范駕駛與 Cosmos 生成的大規模合成里程,再疊加大量精細標注樣本。



他特別強調一個“可解釋性”的點:AlphaMyo 不只是“做動作”,它會解釋它將采取什么行動、為什么這么做,并把行動與軌跡耦合起來。

這在長尾駕駛場景里尤其關鍵——你不可能收集世界上每一個國家、每一種極端情況的真實數據,但如果能把復雜長尾拆解成若干常見的物理交互片段,推理系統就可能在未見過的情境下做出合理決策。



他還談到NVIDIA 為什么做自動駕駛:因為 AI 會重塑整個計算堆棧,NVIDIA 必須理解并構建從芯片到基礎設施到模型到應用的完整系統能力,才能引導產業走向未來。



在他的敘述里,車就是“機器人系統”的一種:它需要為安全設計的處理器、冗余的傳感器體系、可追蹤的全棧軟件,以及一個在低置信場景會回退到更安全護欄系統的“雙堆棧鏡像”策略。



機器人登場:在 Omniverse 里學會成為機器人

接下來,他把鏡頭轉向更廣義的機器人產業:機械臂、移動機器人、人形機器人……尺寸不同、形態不同,但核心問題相似——都需要物理 AI、仿真與數據。



現場還出現了多個機器人“朋友”,他開玩笑說“沒有誰像你們這么可愛”,并強調 Isaac、Omniverse 這類訓練體系,會成為未來機器人產業的通用底座。



把物理 AI 帶進工業:Cadence / Synopsys / Siemens,工業生命周期的 AI 化

黃仁勛把物理 AI 的落點指向工業體系:EDA、系統設計、系統仿真、工廠制造與生產線。



他點到 Cadence 和 Synopsys 在芯片設計世界中的核心地位,并提出一種未來圖景:



未來我們不僅會有“代理軟件工程師”,還會有“代理芯片設計師”和“代理系統設計師”。芯片會在電腦里設計,系統會在電腦里仿真,工廠產線會在電腦里搭建并測試——在真正落到重力世界之前,先在數字世界完成大部分驗證。



隨后他引出 Siemens 的合作內容:將 NVIDIA CUDA-X 庫、AI 模型與 Omniverse 納入其工業軟件產品組合,把物理 AI 帶入整個工業生命周期——從設計與仿真,到生產,再到運營。他把這稱為“新工業革命的起點”。



Vera Rubin:為 AI 新前沿而生的下一代計算平臺(以及為什么必須“極端協同設計”)

演講后半段,黃仁勛把重頭戲交給了新一代平臺:Vera Rubin。



他先講了“為什么叫 Vera Rubin”:這位天文學家通過星系旋轉曲線的異常發現暗物質存在。



黃仁勛借此引出“看不見但影響巨大的東西”,并把它對應到 AI時代的計算挑戰:模型規模與推理計算暴漲,token 生成量爆發,成本競爭每年劇烈下探——一切最終都變成計算問題。



在他看來,摩爾定律放緩意味著:單靠工藝進步,不可能跟上模型規模的增長與 token 需求的增長。要跟上,行業必須做“極端協同設計”——同時在整個堆棧的所有關鍵芯片上創新。

因此,這一代他們幾乎“別無選擇”,只能重新設計每一個芯片與系統組件。黃仁勛強調:僅僅系統里每一個芯片拿出來都可以單獨開發布會。



他在臺上展示了多個實物部件,講到了 CPU 與 GPU 的聯合設計、極高的 I/O 能力、以及在張量計算上通過新型數值/引擎實現的吞吐與精度平衡

除此之外,他還用大量篇幅談到數據中心系統工程:

從“線纜地獄”到“零線纜”、從兩小時組裝到五分鐘、從風冷到全液冷、熱水冷卻(45℃)仍能保持高能效;



以及 Spectrum-X 以太網在 AI 時代的關鍵作用、BlueField DPU 在虛擬化與安全卸載上的角色、NVLink 交換與超高帶寬互聯在“讓每個 GPU 同時與所有 GPU 交流”上的意義。



他給出了一個很具沖擊力的系統性判斷:在千兆瓦級 AI 工廠里,網絡每提升一點吞吐都可能對應數十億美元的價值;因此網絡能力不是“配角”,而是 AI 工廠的關鍵生產力。



他最后用一組“給造 AI 超算的人看的圖表”來總結 Vera Rubin 的意義:訓練吞吐、工廠吞吐、token 成本、能效與成本效益,都被推到了下一階段。



他把這歸結為NVIDIA 的新定位:從“做芯片的公司”,變成“構建完整 AI 堆棧的公司”,覆蓋從芯片到基礎設施、從模型到應用的全鏈路重構。



黃仁勛的“失控花絮”與 CES 的真實感

演講結束前,黃仁勛還放了一段“外景/花絮”式的片段:麥克風、攝像、滑稽的臺詞、卡頓的幻燈片、現場的笑點……他說有一堆內容不得不剪掉,但正是這些不完美,讓 CES 的現場變得更“人類”。



在一片喧鬧與掌聲里,他以一句樸素的收束結束了當天的敘事:NVIDIA 的工作,是把整個堆棧搭出來,讓所有人都能在此之上創造應用,推動 AI 進入下一個前沿。

完整實錄如下:

大家好,拉斯維加斯,新年快樂。

歡迎來到 CES。我們今天在這里,其實要“塞進來”的內容非常多,大概有15 公斤那么重。但能在現場看到你們所有人,我真的非常開心。

此刻,這個主會場里坐著3000 人。外面的庭院,還有2000 人在同步觀看。據我所知,四樓原本用于視頻轉播的區域里,也還有1000 人在看這場演講。

基本上,整棟樓的每一層,都在觀看這場主題演講。當然,還有全世界數以百萬計的人,正通過直播,與我們一起開啟新的一年。

10 到 15 年,計算機產業就會迎來一次平臺級重置

我們經歷過這樣的周期:從大型機個人電腦;從個人電腦互聯網;從互聯網云計算;再從云計算移動計算

每一次變化,都會誕生一個全新的平臺。而所謂“平臺遷移”,真正的含義在于:應用的目標發生了改變。你不再是為舊的計算機寫程序,而是為一套全新的計算范式,重新構建應用。

但這一次,情況有些不同。這一次,并不是一次平臺遷移,而是兩次平臺遷移,同時發生。第一條遷移路徑,是我們正在從“傳統應用”,走向AI 原生應用

一開始,人們以為“AI 本身就是應用”。而事實上,AI 確實是應用的一種。但更重要的是:我們正在把應用構建在 AI 之上。AI 正在成為新的應用運行平臺。

而第二條遷移路徑,則更加根本。它不是“你做什么應用”,而是“你如何開發軟件、如何運行軟件”。整個計算產業的五層技術棧,正在被徹底重塑。

在這個新世界里:你不再是“編程”軟件,而是訓練軟件。你不再主要運行在 CPU 上,而是運行在GPU上。

過去,應用是預先寫好、預先編譯的,然后在設備上執行;而現在,應用能夠理解上下文,并且在每一次運行時,從零生成每一個像素、每一個 token

也就是說——每一次運行,都是一次全新的生成。正因為加速計算的出現,正因為人工智能的出現,整個計算體系正在被從底層到頂層,全部重建。這五層“計算蛋糕”的每一層,如今都在被重新發明。

這意味著什么?這意味著,在過去十年中,大約10 萬億美元規模的傳統計算基礎設施,正在被整體現代化,遷移到這種全新的計算方式之中。

這也解釋了為什么:每一年,有數千億美元的風險投資,持續流入這個行業;為什么,一個總規模達到100 萬億美元的產業,其中相當比例的研發預算,正在從傳統方法,轉向人工智能方法。

人們經常問我:“這些錢到底是從哪里來的?”答案就在這里。它們來自于:對既有計算體系的現代化改造;來自于研發預算從傳統路徑,轉向 AI 路徑;來自于整個世界,正在押注一種全新的計算范式。

這就是為什么,我們會如此忙碌。而過去這一年,也完全不例外。

過去這一年,真的非常不可思議。很多事情幾乎是在同一時間同時發生的。回頭看,它們并不是巧合,而是一次集中式的技術躍遷。

首先發生的,是規模定律(scaling laws)的持續推進。如果回到 2015 年,我第一次看到一個真正可能改變世界的語言模型。它叫BERT。那是第一次讓我意識到,自然語言模型不只是一個研究方向,而是一種即將改變計算方式的技術。

隨后,在2017 年Transformer 架構出現了。但直到五年之后,也就是 2022 年,我們才真正迎來了那個被稱為 “ChatGPT 時刻”的轉折點。

那一刻,世界第一次被真正喚醒。人們開始意識到,人工智能不只是一個工具,而是一種全新的能力平臺。

而在那之后,又發生了一件極其重要的事情

大約一年后,ChatGPT 推出了第一個O1 推理模型。那是第一個真正意義上的“推理模型”

它并不是簡單地生成答案,而是在生成答案之前,進行內部推理。這一次突破,幾乎是革命性的。

它引入了一個新的概念,叫做測試時擴展(test-time scaling)

從直覺上講,這其實非常符合常識。我們不僅在預訓練階段讓模型學習知識,也在后訓練階段通過強化學習,讓模型學會技能,而現在,我們進一步讓模型在推理階段進行“思考”

換句話說:模型開始在實時運行中,動態地分配計算資源,用于推理本身。

而這三種階段——預訓練、后訓練、測試時推理——每一個階段,都需要極其龐大的計算資源

計算定律并沒有停止。大語言模型仍在持續變得更強。與此同時,另一個重要突破出現了。這個突破,發生在2024 年,并在2025 年開始迅速擴散、全面滲透。

那就是:智能體系統(Agentic Systems)的出現。智能體模型,具備一整套全新的能力。

它們能夠推理,能夠查找信息,能夠做研究,能夠使用工具,能夠規劃未來,能夠模擬不同結果

突然之間,AI 開始能夠解決一大類過去幾乎無法自動化的重要問題。在英偉達內部,我個人最喜歡的一個智能體模型,叫做Cursor

它幾乎徹底改變了我們在英偉達內部進行軟件開發的方式。

而這,僅僅是開始。從現在開始,智能體系統將真正迎來爆發式增長

當然,我們也很清楚一件事:大語言模型并不是信息世界的全部。信息并不只存在于文本之中。

只要這個世界中存在信息,存在結構,存在規律,我們就可以訓練一種“語言模型”,去理解這種信息的表示方式,并把它轉化為 AI。

換句話說,語言模型并不局限于語言。

只要世界中存在“可學習的結構”,就存在 AI 的空間。在所有這些方向中,最重要、也最具挑戰性的一個方向,就是——物理 AI(Physical AI)

物理 AI,是理解自然規律的 AI。它不是只理解符號、文本或圖像,而是理解這個世界如何真實運作。

當然,物理 AI 的核心,并不僅僅在于“理解”。更重要的是——與世界交互。當 AI 不再只存在于屏幕中,而是開始與現實世界發生互動時,一切都會改變。

這里,我們需要區分兩個相關但不同的概念。

第一種,是物理 AI。也就是那些能夠感知、決策、并與物理世界互動的 AI 系統,比如機器人、自動駕駛汽車等。

第二種,是AI Physics(物理規律 AI)。這是理解物理定律本身的 AI,能夠學習和推斷自然界的基本規則。

這兩者是相互配合的。

一個與世界互動的 AI,需要理解物理規律;而一個理解物理規律的 AI,最終也必須被用來指導真實世界中的行動。

而在過去一年中,最重要、也最令人振奮的另一件事情,是開放模型的全面進展

當模型是開放的,當創新是開放的,當每一家企業、每一個行業、每一個國家,都能夠在同一時間參與進來,人工智能就不可能只屬于少數人。

正是在這種背景下,AI 才會真正實現無處不在的普及

去年,開放模型真正迎來了爆發。

其中一個最具代表性的事件,是DeepSeek R1的發布。這是第一個真正意義上的開放推理模型

它讓整個世界感到震驚。

不僅因為它的性能,更因為它證明了一件事:推理能力,并不一定只存在于封閉模型中。

DeepSeek R1 的出現,幾乎點燃了整個開放模型生態。一個真正的開放 AI 運動,就此被激活。

從那之后,我們看到世界各地涌現出各種各樣的開放模型系統。不同架構、不同規模、不同目標,但共同點只有一個:開放正在加速智能的擴散。

我們現在已經可以非常確定地說:開放模型,已經觸及 AI 的技術前沿。

是的,它們仍然落后于最前沿的封閉模型,大約六個月左右。但每過六個月,就會有新的開放模型出現,而且它們變得越來越聰明。

正因為如此,你可以看到一個非常明顯的現象:下載量正在爆炸式增長。

初創公司希望參與 AI 革命;大型企業希望構建自己的能力;研究人員希望探索新的邊界;學生希望學習;幾乎每一個國家,都希望參與其中。

因為一個問題擺在所有人面前:數字形態的智能,怎么可能把任何人留在身后?正是在這樣的背景下,開放模型在過去一年中,真正重塑了人工智能產業。而這,也正是我們在英偉達很早之前就隱約意識到的一件事。

幾年前,你們可能聽說過,我們開始自己構建并運營 AI 超級計算機。我們把它們稱為DGX Cloud。當時,很多人問我們:“你們是不是要進入云計算業務?”答案是否定的。

我們構建這些 DGX 超級計算機,并不是為了成為云服務商,而是為了我們自己使用

事實證明,這是一個非常正確的決定。如今,我們已經在全球范圍內,運營著價值數十億美元的 AI 超級計算機集群。它們的核心用途之一,就是用于開發開放模型

我對這項工作的進展感到非常自豪。因為它正在吸引來自世界各地、各個行業的關注。

原因很簡單:我們正在多個不同領域,同時推進前沿 AI 模型的研究。

在這樣的基礎之上,我們構建的這些模型,不僅是前沿級的,而且在客觀評測中同樣處于世界領先位置。我們在多個排行榜上長期名列前茅,這也是我們非常自豪的一點。

這些模型覆蓋了多個關鍵方向:它們能夠理解多模態文檔——也就是我們每天最常見、也最有價值的內容載體,PDF。世界上大量重要的信息都被封裝在 PDF 中,但只有借助人工智能,我們才能真正理解其中的結構、語義和含義,幫助人類高效閱讀與使用這些內容。

我們的 PDF 檢索模型、PDF 解析模型,都處于世界一流水平。

與此同時,我們的語音識別模型同樣是世界級的;我們的檢索模型,本質上就是現代 AI 時代的語義搜索與 AI 搜索引擎,其能力也同樣位居全球前列。我們幾乎在所有關鍵基準上,都處在領先位置,而這一切,最終都是為了一個目標——讓你們能夠真正構建 AI 智能體

這正是一個極其關鍵、也是極具突破性的階段。

回想 ChatGPT 剛出現的時候,很多人都會說:“它生成的結果很有意思,但經常會出現幻覺。”而幻覺的根源其實并不復雜。模型可以記住過去,卻不可能記住現在和未來發生的一切。

因此,如果它沒有被扎根在現實信息之中,沒有在回答問題之前進行檢索、查證和推理,就必然會產生不可靠的輸出。

真正重要的能力,在于模型能否判斷:我現在是否需要做研究?是否需要調用工具?是否需要把一個復雜問題拆解成多個步驟?而這些步驟本身,又是否是模型已經學會、可以勝任的任務。

當模型具備了這種能力之后,它就可以把這些步驟組合成一個完整的行動鏈條,去完成一件它從未被直接訓練過的事情。這正是“推理”的本質,也是智能體真正令人驚嘆的地方。

人類也是如此。我們經常會遇到從未經歷過的情境,但我們可以把它拆解成一系列我們熟悉的規則、經驗和知識,并據此做出判斷和行動。

如今,AI 模型終于開始具備類似的能力。這種推理能力,為無數新的應用場景打開了大門。我們不再需要在第一天就教會 AI 一切;就像人類一樣,它可以在面對具體問題時,通過推理找到解決路徑。

大語言模型在這一點上實現了真正的飛躍——強化學習、思維鏈、搜索、規劃,這一整套方法體系,讓這種能力第一次變得系統化、可工程化,而且現在,這些能力也正在被逐步開源

而真正讓我感到震撼的,是另一個關鍵突破。我第一次清楚意識到這一點,是在看到Aravind創辦的Perplexity時。

Perplexity 是一家做 AI 搜索的公司,非常具有創新性。當我意識到他們在同一個推理鏈條中,同時調用多個模型時,我覺得這簡直是天才般的設計。

仔細想想,這其實再合理不過了:如果 AI 要解決一個復雜問題,為什么不在推理的不同階段,調用世界上最適合那個任務的 AI 呢?

這正是為什么,現代 AI 天生就是多模態的——它理解語音、圖像、文本、視頻、三維結構,甚至蛋白質;

同時,它也是多模型的——它會根據任務選擇最合適的模型;它天然是多云的,因為這些模型分布在不同的地方;同時,它也必然是混合云的

如果你是一家企業,或者你正在構建一臺機器人,那么有些計算發生在云端,有些發生在邊緣,有些發生在工廠,有些發生在醫院——數據必須就在你身邊,實時可用。

因此,這正是未來 AI 應用的基本形態。換一種說法:既然未來的應用是構建在 AI 之上的,那么這套智能體架構,就是未來應用的基礎結構。正是這種多模型、多模態、可推理、可調用工具的架構,極大地加速了各類 AI 創業公司的成長。

再加上開放模型與開放工具的出現,你現在不僅可以使用最前沿的能力,還可以定制屬于你自己的 AI,教會它只有你才掌握的技能——那些來自你所在行業、你所在公司的深度知識。這正是我們在 Nemotron、NeMo,以及整個開放模型體系中所要實現的目標。

在這種架構下,你通常會在前面放置一個智能路由器。這個路由器就像一個管理者,它會根據你給出的提示意圖,判斷當前任務最適合由哪一個模型來完成。

需要處理郵件的請求,就留在本地運行;需要通用推理的部分,就調用前沿模型。這樣一來,你既擁有高度定制化的 AI,又始終站在技術前沿——一端是你獨有的領域能力,另一端是不斷進化的前沿智能,而這一切,只需要“讓它跑起來”即可。

為了讓大家真正理解這種智能體架構在現實中的樣子,我們做了一件事:把它完整地搭建出來,而且不是作為一個概念演示,而是作為一個真實可運行的系統。

我們把這種可復用的系統設計,稱之為Blueprints。Blueprint 并不是某一個模型,而是一整套經過驗證的 AI 系統組合方式,它包括模型選擇、推理流程、工具調用、數據路徑,以及最終如何把結果交付給用戶。

其中一個 Blueprint,就是個人 AI 助理。這個助理并不是一個聊天機器人,而是一個能夠真正幫你完成任務的系統。它可以幫你讀取郵件、總結信息、安排日程、檢索資料、生成內容,并在必要時主動調用外部工具。

當你向它提出一個請求時,它不會立刻給你一個答案,而是先判斷:這是不是一個需要研究的問題?是不是一個需要多步推理的問題?是不是一個需要訪問你個人數據的問題?然后,它會把這個請求拆解成多個子任務,分別交給最合適的模型來完成,最后再把結果整合起來,形成一個你真正能用的輸出。

在這個過程中,有些模型運行在云端,有些運行在本地,有些運行在你自己的服務器上。

對你來說,這一切都是透明的;你只看到結果,但背后是一整套復雜而精密的系統在協同運作。這正是我們所說的混合 AI,也是未來所有嚴肅 AI 應用的基本形態。

為了支持這種架構,我們構建了一整代全新的計算系統。你們可能已經聽說過DGX Spark。它并不是一臺傳統意義上的服務器,而是一個為 AI 原生應用而生的計算節點。它足夠小,可以放在辦公室、實驗室,甚至工廠里;同時,它又足夠強,可以支撐本地推理、數據處理和智能體運行。當你把 DGX Spark 與云端的 DGX 系統連接起來時,你就擁有了一套真正意義上的端云協同 AI 基礎設施。

這件事之所以重要,是因為物理 AI的時代已經到來。機器人、自動化系統、工業設備,它們不可能把所有計算都放到云端。它們必須在本地感知環境、實時做出決策,同時又能夠在需要時,調用云端的更強算力進行規劃、學習和更新。這種“本地即智能、云端即大腦”的架構,是物理 AI 唯一可行的路徑。

在舞臺上,我們展示了多個這樣的 Blueprint 示例,包括機器人系統。你會看到,機器人并不是被一行一行代碼“寫”出來的,而是通過感知、推理、規劃和執行,完成復雜動作。

它們可以理解語言指令,把語言映射為物理行動;可以在環境變化時重新規劃路徑;可以在失敗之后進行自我修正。這并不是一個單一模型的能力,而是一整套 AI 系統協同工作的結果。

而這,正是為什么我們如此強調系統級創新。單一模型的性能提升固然重要,但真正改變世界的,是這些模型如何被組合、如何被部署、如何在現實環境中長期穩定運行。Blueprint 的意義就在這里——它把復雜性封裝起來,讓開發者、企業和研究人員,可以在此基礎之上快速構建自己的 AI 應用,而不必從零開始。

當我們真正開始構建這些 AI 系統時,有一件事變得異常清晰:AI 已經不再是某一層的軟件問題,而是整個計算體系的問題。如果計算基礎設施不能被徹底重構,那么所有關于智能體、物理 AI、自動駕駛和機器人的設想,最終都會卡在現實世界的瓶頸上。

這也是為什么,我們必須從最底層開始重新思考計算。

AI 的計算負載,與傳統計算完全不同。它不是穩定、線性的,而是高度動態的;不是以單次執行為主,而是以持續推理為核心。模型在“思考”的時候,會在極短時間內拉滿算力、內存和網絡帶寬,然后又迅速回落。這種計算模式,對芯片、互連、系統、電力和散熱,提出了前所未有的要求。

因此,我們不再把 GPU、CPU、網絡、存儲視為彼此獨立的部件,而是把它們當作一個整體系統來設計。這正是我們反復強調的——極限協同設計。

在這個體系中,芯片不再只是追求單點性能,而是為整個系統服務;網絡不再只是連接,而是成為計算的一部分;系統不再只是承載,而是主動參與調度與優化。只有在這樣的前提下,AI 才能真正擴展到前所未有的規模。

這正是Blackwell 之后,我們為什么必須再向前邁出一大步

過去幾年里,Blackwell 為 AI 訓練和推理奠定了一個全新的基線。但很快我們就意識到,如果只是沿著同樣的路徑繼續前進,是遠遠不夠的。模型規模在加速增長,推理復雜度在急劇上升,token 的生成方式正在從“回答”轉向“思考”,所有這些變化,都在逼迫我們重新發明整個計算平臺。

于是,我們開始設計一個全新的系統。不是一塊芯片。不是一臺服務器。而是一個完整的 AI 超級計算平臺

這就是Vera Rubin

Vera Rubin 并不是某一代產品的代號,而是一個象征。它象征著我們已經進入一個階段:計算的瓶頸,不再在單一部件上,而在系統整體的協同效率上。在這個平臺中,每一個決策——從晶體管如何使用,到數據如何流動——都是圍繞 AI 的真實負載來做出的。

在設計 Vera Rubin 的過程中,我們面臨的最大挑戰,并不是“如何把性能再提升一點”,而是:如何在物理極限逐漸逼近的情況下,仍然實現數量級的躍遷。摩爾定律正在放緩,單靠晶體管數量的增長,已經無法支撐 AI 的發展速度。

如果模型規模每年增長 10 倍,如果推理 token 每年增長 5 倍,如果成本還要持續以數量級下降,那么整個計算體系就必須發生質變。

答案只有一個:在整個系統層面進行同時創新

這也是為什么,在這一代平臺中,我們選擇重新設計所有關鍵組件。CPU、GPU、網絡芯片、交換機、系統結構、電力與散熱——沒有任何一層可以保持不變。因為只要其中任何一層跟不上,整個系統都會被拖慢。

Vera Rubin 正是在這樣的背景下誕生的。它不是一次漸進式升級,而是一次系統級重構。它的目標非常明確:為 AI 的下一個十年,提供一個足夠強大、足夠高效、足夠可擴展的計算基礎。

當我們真正開始定義 Vera Rubin 這個平臺時,我們首先要解決的,不是“性能還能不能再快一點”,而是一個更根本的問題:數據在系統中,究竟應該如何流動

在 AI 計算中,真正昂貴的,并不是計算本身,而是數據的移動。每一次跨芯片、跨節點、跨機架的數據傳輸,都會帶來延遲、功耗和效率損失。而隨著模型規模的不斷擴大,這個問題會被無限放大。

因此,在 Vera Rubin 中,我們從一開始就選擇了一條非常激進的路線:把多個關鍵計算單元,作為一個整體來協同設計

這也是為什么,Vera Rubin 并不是一顆“更大的 GPU”,而是一個由六顆核心芯片組成的協同系統。這六顆芯片并不是簡單地堆疊在一起,而是通過極高帶寬、極低延遲的互連,被設計成一個幾乎“不可分割”的整體。

在這個系統中,GPU、CPU、內存控制邏輯、網絡接口,不再是松散拼接的模塊,而是圍繞 AI 負載進行深度融合。它們共享統一的視圖,能夠以極高效率訪問彼此的數據,就像是在同一塊硅片上工作一樣。

為了實現這一點,我們在互連技術上投入了極大的精力。NVLink在這一代平臺中,已經不再只是 GPU 之間的高速通道,而是整個系統的“神經網絡”。數據不需要繞遠路,不需要經過多層轉發,而是可以在需要的時刻,直接流向需要它的地方。

這件事情聽起來很抽象,但它的結果非常直觀:模型在推理時,可以更長時間地保持“思考狀態”;更多的上下文可以常駐在高速內存中;系統不再頻繁地因為等待數據而空轉。

與此同時,網絡本身也發生了根本變化。

在傳統數據中心中,網絡只是負責把機器連在一起。但在 AI 數據中心中,網絡本身就是計算的一部分

在 Vera Rubin 平臺中,我們把Spectrum-X網絡體系深度嵌入到整體設計之中。交換機、網卡、拓撲結構、調度邏輯,全都圍繞 AI 的通信模式來優化。模型在訓練和推理過程中,會不斷進行大規模的梯度同步、參數廣播和上下文交換,而這些操作,已經成為系統的主要負載之一。

因此,我們不再允許網絡成為瓶頸。在這個平臺上,網絡的吞吐、延遲和可預測性,必須與計算本身同等重要。

同樣重要的,還有內存系統。在 AI 推理時代,內存的角色已經發生了變化。它不再只是用來“存放權重”,而是用來承載推理過程本身。KV cache、上下文窗口、中間狀態,這些內容必須盡可能長時間地留在高速內存中,才能支持更復雜、更長鏈路的推理。

因此,Vera Rubin 的內存體系,是為“持續推理”而設計的。我們追求的不是峰值容量,而是可持續、高帶寬、低延遲的訪問能力。只有這樣,模型才能真正“停下來思考”,而不是被迫在計算與數據移動之間來回切換。

當你把這些因素放在一起看,就會發現一件事:Vera Rubin 并不是在追求某一個指標的極限,而是在追求整個系統效率的極限

這也是為什么,我們必須同時重構計算、互連、網絡、內存、電力和散熱。因為在這個規模上,任何一處效率損失,都會被成千上萬倍地放大。

最終,我們得到的,不只是一個更快的平臺,而是一個為 AI 原生設計的計算生態系統。它能夠隨著模型規模的增長而擴展,能夠隨著推理復雜度的提升而進化,也能夠在未來十年中,持續支撐 AI 的發展。

當你把視角從單一系統繼續拉遠,就會發現,真正的挑戰并不止于一臺機器,而是在數據中心尺度上,如何讓這些系統協同工作。因為一旦 AI 模型開始進入大規模訓練與持續推理階段,問題就不再是“一臺系統有多快”,而是“成千上萬臺系統,能否像一臺機器一樣工作”。

這正是我們在 Vera Rubin 平臺上,必須同時考慮機架級、集群級、數據中心級設計的原因。我們不再把服務器簡單地一臺一臺堆放,而是把整個機架視為一個計算單元。計算、網絡、電力和散熱,必須在機架層面完成統一設計,才能保證系統在滿負載運行時,仍然具備可預測的性能。

在這種架構下,我們構建了所謂的超節點(Supernode)。一個超節點并不是某一臺特別強的機器,而是一組通過高速互連、統一調度、共享內存視圖的系統集合。在 AI 負載看來,這些系統就像是一塊連續擴展的計算資源,而不是彼此獨立的節點。這一點,對于大模型訓練和長上下文推理來說,至關重要。

當模型規模繼續擴大,通信量會呈指數級增長。如果系統在這個階段出現任何不均衡,哪怕只是極小的延遲抖動,都會被迅速放大,最終拖慢整個訓練過程。因此,在超節點層面,我們對拓撲結構、帶寬分配和調度策略進行了深度優化,確保數據在系統中始終走最短、最可預測的路徑。

當然,所有這些計算能力,最終都會轉化為一個非常現實的問題:能耗

AI 數據中心的功耗規模,已經遠遠超過了傳統數據中心。訓練一個前沿模型,所消耗的電力,足以支撐一座中型城市的部分用電需求。如果我們不能在能效上實現突破,那么 AI 的發展本身就會受到物理和經濟條件的限制。

因此,在這一代平臺中,我們把能效作為系統設計的核心指標之一。每一次數據移動、每一次計算調度、每一次網絡通信,都會被納入整體能耗模型之中進行優化。我們的目標,并不是簡單地降低功耗,而是在單位能耗下,完成盡可能多的有效推理與訓練工作

這也直接推動了散熱技術的演進。空氣冷卻已經無法滿足如此高密度的計算需求,于是我們大規模引入了液冷系統。通過液冷,我們不僅能夠更有效地帶走熱量,還能夠讓系統在更穩定的溫度區間內運行,從而提高可靠性和壽命。這些看似“工程細節”的東西,實際上決定了 AI 是否能夠長期、可持續地運行在現實世界中。

當你把計算、網絡、能耗和散熱放在一起看,就會發現:現代 AI 數據中心,本身就是一臺巨大的計算機。

它不是由零散的服務器拼湊而成,而是一個從底層物理到上層軟件高度協同的系統。正是在這樣的系統之上,AI 才能以我們今天看到的速度不斷進化。

也正因為如此,我們才會反復強調:AI 的未來,不僅僅屬于模型研究人員,也屬于系統工程師、電力工程師、網絡工程師,以及所有參與構建這一基礎設施的人。只有當整個系統協同進化,AI 才能真正走向規模化應用。

當這些計算平臺真正具備規模之后,一個新的問題就擺在我們面前:這些能力,究竟要以什么形式被使用?

并不是所有 AI 都應該運行在同一個地方。有些 AI 需要運行在超大規模的數據中心中,用來訓練前沿模型、進行復雜規劃和長期推理;有些 AI 需要運行在企業自己的數據中心里,靠近私有數據和業務系統;還有一些 AI,必須運行在本地設備、工廠、醫院、汽車和機器人中,進行實時決策。

因此,AI 的未來,一定是多層次的

這也是為什么,我們在設計整套平臺時,從一開始就假設:AI 會同時存在于云端、企業內部和邊緣側。這并不是權宜之計,而是一種必然結果。數據的生成地點,決定了計算的部署位置;延遲、安全、合規性,這些現實因素,決定了 AI 不可能被集中在某一個地方。

在云端,我們與全球幾乎所有主要的云服務商合作。這些云平臺,正在成為前沿模型訓練與大規模推理的核心載體。而在這些云中運行的,并不僅僅是“通用 AI”,而是越來越多針對行業定制的模型與系統

在企業側,我們看到一種非常明確的趨勢:企業并不想把最核心的數據完全交給外部。它們希望在自己的環境中,構建、運行并控制 AI。這催生了所謂的企業 AI 工廠——一個專門用來訓練、微調、部署和運營 AI 的基礎設施。

在這種架構下,企業不再只是“使用 AI”,而是開始擁有 AI。它們可以把自身幾十年積累的數據、流程和知識,轉化為獨有的智能能力,而這正是 AI 真正產生長期價值的方式。

而在越來越多的國家,我們還看到了另一種需求:主權 AI(Sovereign AI)

每一個國家,都擁有自己的語言、文化、法律體系和社會結構。它們也擁有自己的數據資源和戰略目標。

因此,越來越多的國家意識到:如果 AI 成為未來的基礎能力,那么它就不應該完全依賴外部。一個國家必須能夠在本土訓練模型、運行模型、控制數據,并確保這些系統符合本國的價值觀和法律體系。

這并不是一個技術問題,而是一個國家級基礎設施問題。

而主權 AI 的實現,離不開強大的本地計算能力、開放的模型生態,以及完整的工具鏈。這正是我們在多個國家與政府、科研機構和本地企業合作的原因。我們的目標,并不是替代任何人,而是賦能各個地區,構建屬于他們自己的 AI 能力

當你把云、企業、本地和主權 AI 放在一起看,就會發現:AI 并不是一個單一形態的產品,而是一整套分布式智能系統。

而支撐這套系統運行的,正是我們前面所講的那整套計算平臺、網絡體系和軟件工具。無論 AI 運行在哪里,它們背后遵循的都是同樣的原則:高效的數據流動、可預測的性能、可擴展的架構,以及長期可持續的運行能力。

這也是為什么,我們并不是在“賣芯片”,而是在構建一個完整的 AI 基礎設施生態

當 AI 真正離開屏幕、進入現實世界時,一切都會變得更加具體,也更加嚴苛。因為在物理世界中,錯誤是有成本的,延遲是不可接受的,系統必須在復雜、不確定、持續變化的環境中穩定運行。這正是為什么,汽車與機器人,會成為物理 AI 最重要、也最具代表性的落地場景。

先從汽車開始。自動駕駛,本質上并不是一個“視覺識別問題”,而是一個完整的物理 AI 系統。它需要實時感知環境、理解三維空間結構、預測其他參與者的行為,并在極短時間內做出安全決策。這些能力,并不是通過規則堆疊實現的,而是通過大規模數據訓練、仿真和持續學習逐步獲得的。

因此,我們從一開始就把自動駕駛視為一個端到端的 AI 系統工程。從車端的感知與推理,到數據中心中的訓練與仿真,再到模型的持續迭代,這是一條完整的閉環。

汽車在現實世界中行駛,每一天都會產生海量數據;這些數據被送回數據中心,用于訓練更好的模型;而更好的模型,再被部署回車輛之中。這正是 AI 在物理世界中不斷進化的方式。

機器人也是如此,甚至更加復雜。

一個機器人面對的,并不是結構化的道路環境,而是高度多樣化、充滿不確定性的真實空間。地面可能是光滑的,也可能是松軟的;物體可能是剛性的,也可能是柔性的;人類的行為更是難以預測。在這樣的環境中,機器人如果只依賴預先編程的動作,是不可能規模化的。

因此,我們必須讓機器人具備真正的感知、推理和學習能力

這也是為什么,我們在機器人領域構建的,不是某一個單點模型,而是一整套系統:從感知模型到運動模型,從世界建模到策略規劃,再到在仿真環境中進行大規模訓練。機器人并不是被“寫”出來的,而是被“訓練”出來的。它們通過在虛擬世界中反復嘗試、失敗和修正,逐步學會如何在現實世界中行動。

在這個過程中,仿真扮演著至關重要的角色。

現實世界的數據是昂貴的、緩慢的,而且充滿風險;而仿真世界則可以被無限復制、加速和控制。通過高保真的物理仿真,我們可以在虛擬環境中生成海量訓練數據,讓機器人和自動駕駛系統在“安全的失敗”中不斷學習。這正是為什么,我們把仿真視為物理 AI 的核心基礎設施之一。

而當這些系統真正開始工作時,你會發現一個非常重要的事實:物理 AI 從來不是單點部署的。它們總是運行在一個端云協同的體系中。機器人在本地進行實時感知與決策,而更復雜的規劃、模型更新和策略學習,則發生在云端或數據中心中。這種協同,是物理 AI 唯一可行的運行方式。

正因為如此,我們才會看到,越來越多的行業開始真正擁抱物理 AI。制造業、物流、醫療、能源、農業,這些領域都存在著大量需要“理解世界并采取行動”的任務。AI 在這些場景中的價值,并不體現在生成一段文本,而體現在提高效率、降低風險、擴展人類能力

而這一切的前提,是我們必須擁有足夠強大、足夠可靠的計算平臺,來支撐這些系統長期運行。物理 AI 不是一次性的部署,而是一項持續數十年的工程。系統必須可以更新、可以擴展、可以在真實世界中不斷學習和進化。

當我們把所有這些變化放在一起看,就會意識到:人工智能并不是一個短期趨勢,而是一場長期、結構性的產業重構。它不僅改變了軟件如何被編寫,也改變了硬件如何被設計,更改變了企業如何運作、國家如何建設基礎設施,以及人類如何與技術協作。

我們正在進入一個新的階段。在這個階段里,AI 不再只是提升效率的工具,而是一種新的生產要素。它像電力一樣,成為所有行業的基礎能力;又像互聯網一樣,重塑了信息、服務和價值的流動方式。而與以往任何一次技術革命不同的是,這一次,AI 正在同時重構數字世界與物理世界。

這意味著,未來十年中,幾乎每一個行業,都會被重新發明。制造、物流、交通、醫療、能源、金融、科研——這些領域中的工作方式,將不再以“人如何操作機器”為核心,而是轉向“人如何與智能系統協同”。AI 將承擔越來越多的認知與執行任務,而人類則專注于創造、判斷與價值選擇。

從產業的角度看,這也是一個規模前所未有的機會。我們看到,全球范圍內正在形成一個新的產業基礎——AI 工廠。這些工廠并不生產實體商品,而是生產智能本身:模型、推理能力、決策系統和自動化流程。它們需要巨大的計算能力、穩定的能源供應、先進的網絡體系,以及高度專業化的軟件工具。

正是在這樣的背景下,我們判斷:未來十年,將是AI 基礎設施建設的黃金十年。這不僅僅是關于芯片或服務器的需求增長,更是關于整個系統——從數據中心到邊緣設備,從云端到本地,從模型到應用——的全面升級。

而在這一過程中,有一點至關重要:這場變革必須是開放的

如果 AI 只掌握在少數人手中,它就無法真正釋放潛力;如果 AI 無法被各行各業、各個國家所使用,它就不可能成為真正的基礎能力。

因此,我們始終堅持一個原則:推動開放的平臺、開放的模型、開放的生態。我們希望看到的是一個多樣化的 AI 世界——不同的模型、不同的架構、不同的應用,共同推動智能向前發展。

對我們來說,這并不是一條容易的路。構建這樣的系統,需要巨大的投入、長期的耐心,以及跨越多個學科的協作。

但這也是一條值得走的路

因為我們相信,人工智能最終的價值,不在于替代人類,而在于擴展人類的能力;不在于制造更多的工具,而在于幫助人類解決那些過去無法解決的問題。

這正是我們在英偉達每天所做的事情。也是我們對未來十年,最堅定的信念。

謝謝大家。新年快樂。歡迎來到 AI 的新時代。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
性能小鋼炮!新機官宣:4月1日,正式發布登場!

性能小鋼炮!新機官宣:4月1日,正式發布登場!

Q科技基地
2026-03-27 16:41:51
長在懸崖超900年!浙江父子徒手挖了兩天,挖到3.5米長巨型夜交藤

長在懸崖超900年!浙江父子徒手挖了兩天,挖到3.5米長巨型夜交藤

雪靈谷
2026-03-03 18:18:48
“模仿保時捷”是靈丹妙藥?啟境GT7能否復刻小米SU7的成功?

“模仿保時捷”是靈丹妙藥?啟境GT7能否復刻小米SU7的成功?

每日侃車
2026-03-26 09:08:07
詹姆斯!這個第一你也要爭!

詹姆斯!這個第一你也要爭!

柚子說球
2026-03-27 19:16:11
馬斯克放話:比MPV更酷的新車要來了,特斯拉卻只剩3款車在賣

馬斯克放話:比MPV更酷的新車要來了,特斯拉卻只剩3款車在賣

我是一個養蝦人
2026-03-25 23:32:20
邀卓榮泰就重啟核電議題作報告,在野黨:賴當局應對臺灣民眾道歉

邀卓榮泰就重啟核電議題作報告,在野黨:賴當局應對臺灣民眾道歉

海峽導報社
2026-03-27 17:37:03
女生要主動起來跟想象中完全不一樣!網友:讓我遞毛巾 瞬間開竅了

女生要主動起來跟想象中完全不一樣!網友:讓我遞毛巾 瞬間開竅了

另子維愛讀史
2026-01-26 18:39:06
美參議院連夜通過撥款案,把移民局踢出局,特朗普動用行政令發錢

美參議院連夜通過撥款案,把移民局踢出局,特朗普動用行政令發錢

墜入二次元的海洋
2026-03-28 17:22:53
美國為什么突然打伊朗?一篇文講清楚

美國為什么突然打伊朗?一篇文講清楚

李月亮
2026-03-02 20:46:25
笑不活了!迪麗熱巴一個蔥油餅,把陳飛宇“喂”上了熱搜

笑不活了!迪麗熱巴一個蔥油餅,把陳飛宇“喂”上了熱搜

草莓解說體育
2026-03-28 06:26:57
不可錯過!3月27日晚上19:03比賽!中央5套CCTV5、CCTV5+直播表

不可錯過!3月27日晚上19:03比賽!中央5套CCTV5、CCTV5+直播表

劉哥談體育
2026-03-28 16:54:59
結束二連敗!火箭6人上雙穩更衣室氛圍?休媒仍不滿烏度卡用人

結束二連敗!火箭6人上雙穩更衣室氛圍?休媒仍不滿烏度卡用人

顏小白的籃球夢
2026-03-28 10:20:22
事情鬧大了!日本內閣連發公告,中國的態度,告訴了世界一個事實

事情鬧大了!日本內閣連發公告,中國的態度,告訴了世界一個事實

未來展望
2026-03-27 16:43:23
與其在歐洲當牛馬,不如去給梅西當隊友,薩拉赫這一步走對了

與其在歐洲當牛馬,不如去給梅西當隊友,薩拉赫這一步走對了

耀陽體育
2026-03-27 16:22:13
羅德里:感覺好得不能再好了,我終于回來了

羅德里:感覺好得不能再好了,我終于回來了

懂球帝
2026-03-28 09:38:13
邱毅發出靈魂三問,炮轟馬英九“把基金會當私產”

邱毅發出靈魂三問,炮轟馬英九“把基金會當私產”

心本來就不大
2026-03-28 13:00:41
中亞街頭驚現廣東佛山大巴!當地交管回應:車子被轉賣了

中亞街頭驚現廣東佛山大巴!當地交管回應:車子被轉賣了

快科技
2026-03-27 17:08:10
67歲男子闖紅燈被三車連撞!家屬:沒想訛人,但希望各方擔起應盡責任

67歲男子闖紅燈被三車連撞!家屬:沒想訛人,但希望各方擔起應盡責任

上觀新聞
2026-03-28 13:41:09
士兵當將軍有多難?四川阿壩5000人參加紅軍,僅1人55年獲大校銜

士兵當將軍有多難?四川阿壩5000人參加紅軍,僅1人55年獲大校銜

興趣知識
2026-03-26 14:01:20
女人想讓你“得手”,不會直接講,而是給你這四種暗示

女人想讓你“得手”,不會直接講,而是給你這四種暗示

三農老歷
2026-03-28 17:10:11
2026-03-28 19:27:00
前沿在線 incentive-icons
前沿在線
前沿在線官方賬號,關注AI、機器人、智能車等前沿領域;
131文章數 1235關注度
往期回顧 全部

科技要聞

遭中國學界"拉黑"后,這家AI頂會低頭道歉

頭條要聞

特朗普:北約沒支持美打擊伊朗 美國以后也不會幫北約

頭條要聞

特朗普:北約沒支持美打擊伊朗 美國以后也不會幫北約

體育要聞

“我是全家最差勁的運動員”

娛樂要聞

王一博改名上熱搜!個人時代正式開啟!

財經要聞

臥底"科技與狠活"培訓:化工調味劑泛濫

汽車要聞

置換補貼價4.28萬起 第五代宏光MINIEV正式上市

態度原創

時尚
家居
數碼
游戲
軍事航空

龍蝦來了,厭蠢癥炸了

家居要聞

曲線華爾茲 現代簡約

數碼要聞

綠聯15W磁吸移動電源現身海外,有啥亮點?

《紅色沙漠》組建貓咪軍團!愛貓人士游戲紀念逝去愛寵

軍事要聞

美軍中東基地損失最新披露

無障礙瀏覽 進入關懷版