最近看了很多文章。都在說我們已經邁過了奇點,Agent 時代來了。
海外一位做了六年 AI 創業的 Matt Shumer 寫了篇長文叫《Something Big Is Happening》快一億曝光。
他說自己一直給家人朋友講"禮貌版本",因為誠實版本聽起來像瘋了。但他覺得不能再瞞著了。
Anthropic CEO Dario Amodei 發了兩萬字的《The Adolescence of Technology》。
把現在這個階段比作人類文明的"青春期"。
我的朋友們也在寫,"賽博禪心"說我們可能已經邁過了文明的奇點,"有機大橘子"說互聯網已死、Agent 永生。
我看完這些文章之后的感受是:
他們都在告訴你"變化已經發生",但沒有人把"變化具體是什么"講的特別清楚。
模型不就是那些模型嗎?產品不就是那些產品嗎?為什么突然間就不一樣了?
我猜很多人看完那些文章,焦慮了一陣,然后該干嘛干嘛。
因為你不知道具體發生了什么,就沒法判斷它跟你有什么關系。
這篇文章不是來制造焦慮的。焦慮沒用。
我想做的事很簡單:把 2026 年初 AI 領域到底發生了哪些變化,一層一層拆給你看。然后你自己判斷要不要跟進。
![]()
在聊技術之前,先說一個讓我不安的事
我自己用這套新的 Agent 體系,一個人花了一周寫出了一個完整的產品,覆蓋多個平臺,GitHub 上拿了 2000 Star。放在以前,這個活需要大廠一個小組干一個月。
![]()
但同時,相當多的人連 AI 是什么都不知道。
不是 2026 年的 AI,他們連 2024 年的 AI 都沒怎么用過。
而且這不只是所謂"底層人群"的問題。
大廠里年薪幾十萬上百萬的白領,在體系里當了多年螺絲釘的人,處境其實一樣危險。
他們每天做的事——寫報告、做 PPT、整理數據、協調溝通、走審批流程。
本質上就是把信息從一種格式搬到另一種格式。
這些活 Agent 干得又快又好。
已經有一批人意識到了,快速跟進,生產力短時間內拉開了差距。
管理層看得很清楚:同樣的任務,會用 Agent 的人一天搞定,不會用的人一周。
在現在的經濟環境,這個對比意味著什么,不用多說。
而且這個差距會自我強化。用得越多,理解越深,用得越好,差距越大。
所以我想把具體的變化拆清楚,讓你知道到底發生了什么,然后自己決定要不要跟進。
![]()
2026 年初到底發生了什么
2025 年你用 AI 的方式大概是這樣的:
你 → 打開對話框 → 問一個問題 → AI 回答 → 你自己判斷對不對,自己去執行
2026 年初變成了這樣:
你 → 描述一個意圖 → Agent 自己拆解任務,調度多個子 Agent → 每個 Agent 連接不同的工具和數據 → 并行探索多條路徑 → 自己判斷質量 → 交付成品
AI 從一個你問它答的工具,變成了能替你干活的勞動力。
這個變化可以拆成四層來理解:大腦、手腳、組織、進化。
第一層:大腦變了
2026 年 2 月 5 日,Anthropic 和 OpenAI 同一天發布了新模型:Claude Opus 4.6 和 GPT-5.3 Codex。
這次發布跟以往的版本更新不太一樣。幾個具體的變化:
編程能力跳了一個臺階:
GPT-5.3 Codex 在多個權威編程測試上刷新了紀錄,而且消耗的資源比之前的模型更少。Opus 4.6 也是,在大型代碼庫里跑得更穩,還能發現自己寫的 bug 然后改掉。
開始有"判斷力"了:
以前的模型調用工具像照著說明書按按鈕,你告訴它用什么它才用什么。
現在它能自己判斷該用什么工具、什么時候用、怎么組合著用。
Matt Shumer 用了兩個詞形容這種感覺:judgment(判斷力)和 taste(品味)。
能連續工作好幾個小時了:
METR(一個專門追蹤 AI 能力的研究機構)一直在測一個指標:AI 能獨立完成多長時間的專家級任務。
一年前大概是 10 分鐘,后來變成 1 小時,再后來幾個小時。
到 2025 年 11 月已經能完成專家需要將近 5 小時的任務。這個數字大概每 4 到 7 個月翻一倍。
2 月 5 日發布的新模型還沒被測進去。
Opus 4.6 還有一個新東西:100 萬 token 的上下文窗口。
長上下文窗口越來越普遍,DeepSeek 前幾天也更新了 100 萬上下文。
名詞解釋:Token 和上下文窗口 Token 是 AI 處理信息的基本單位,大約 1 個中文字等于 1 到 2 個 token。上下文窗口就是 AI 一次能"看到"多少信息。100 萬 token 意味著它能把一整個大型項目的代碼和文檔全部裝進腦子里,不會做到一半忘了前面在干什么。
AI 開始參與造自己了:
這個可能是最值得注意的變化。GPT-5.3 Codex 是第一個參與了自身創建過程的模型。
OpenAI 在技術文檔里寫了:Codex 團隊用它的早期版本來調試訓練過程、管理部署、診斷測試結果。
Amodei 也說 AI 現在在寫 Anthropic "大部分的代碼",這個反饋循環在"逐月加速"。
更聰明的 AI 寫出更好的代碼,造出更聰明的 AI,再寫出更好的代碼。這個循環已經轉起來了。
![]()
這一層帶來了什么變化
Matt Shumer 描述了他現在的工作方式:
告訴 AI 想要什么,離開電腦四個小時,回來發現活干完了。
AI 自己寫代碼、自己打開應用測試、發現問題自己改,改到滿意了才交給他。
交付的是成品,不是需要他再花幾個小時修的草稿。
第二層:手腳長出來了
2025 年的 AI 也挺聰明的,但它被困在一個對話框里。你問它問題它能答,但它沒法替你去做事。
2026 年這個限制被打破了。
Agent 跑在你自己的電腦上
以 Claude Code 為代表的新一代 Agent 跑在你的本地電腦上。這個變化比聽起來重要得多。
名詞解釋:Agent Agent 不是聊天機器人。你給它一個目標,它自己決定怎么做、用什么工具、做完了自己檢查質量。Claude Code 是 Anthropic 做的編程 Agent,跑在你電腦的終端里。
以前你的數據跟著產品走。筆記鎖在 Notion 里,文檔鎖在飛書里,聊天記錄鎖在 ChatGPT 里。
換一個產品,之前積累的東西就斷了。你被綁在某個生態里,不是因為它最好,是因為你的數據在那。
現在反過來了。
你的電腦本來就存著你所有的代碼、文檔、設計稿、會議記錄。
Agent 直接讀這些東西,不需要你上傳或者復制粘貼。
而且這些數據不跟任何模型綁定。
今天用 Opus 4.6,明天覺得 GPT-6 更好就切過去,你的文件都還在。
上下文是你的,不是廠商的。
![]()
MCP:讓 Agent 連上外面的世界
Agent 跑在本地了,但它怎么連接你電腦之外的服務?
名詞解釋:MCP(Model Context Protocol) Anthropic 做的一個開源協議。以前 AI 要連一個外部服務(比如 GitHub、Slack、數據庫),得專門寫一套對接代碼。10 個服務就寫 10 套。MCP 把這變成了即插即用:每個服務做一個標準接口,任何 AI 都能直接用。類似 USB-C,一個口通吃所有設備。
現在已經有非常多的客戶端支持 MCP,你常見的服務都有(GitHub、Figma、Jira、Slack、Stripe 等等)。
Anthropic、OpenAI、Google 三家在 2025 年底聯合推這個標準。
平時互相競爭的三家在這件事上合作了,說明大家都認為這是必須統一的基礎設施。
你散落在飛書、Notion、各種云服務里的信息,通過 MCP 也能被 Agent 拉回來。
本地文件提供最核心的上下文,MCP 把剩下的補上。
![]()
Skills:可以共享的技能包
名詞解釋:Skills 預先定義好的能力模塊,Agent 按需加載。比如一個"前端開發"Skill 里有 React 最佳實踐和測試方法,一個"數據分析"Skill 里有 SQL 查詢模式和可視化方法。這些 Skill 可以由社區創建和共享。
Skills 改變的是 Agent 獲取能力的方式。
以前你想讓 AI 幫你做一件專業的事,你得自己寫一大段提示詞,把背景、規范、注意事項全塞進去。
每次都得重新寫,寫得不好效果就差。
現在有人把這些專業知識打包成了 Skill。
你的 Agent 需要做前端開發,加載一個前端 Skill 就行,里面的最佳實踐、代碼規范、測試方法都配好了。
需要做數據分析,換一個 Skill。就像給員工發了一本針對性的操作手冊,只不過這個手冊是即插即用的。
更重要的是,Skills 可以由社區創建和共享。一個資深工程師把自己十年的經驗封裝成 Skill,全世界的 Agent 都能用。你不需要自己是專家,你的 Agent 可以隨時變成專家。
這也意味著 Agent 的能力上限不再由開發它的公司決定,而是由整個社區決定。
社區越活躍,可用的 Skill 越多,每個人的 Agent 就越強。
![]()
Agent 開始認識你了
前面說的這些能力——本地運行、MCP 連接、Skills 加載——有一個共同的問題:
每次對話結束,Agent 就忘了你是誰。
Claude Code 最先解決了一部分。
它在項目根目錄下放了一個 CLAUDE.md,你寫上項目的規范和偏好,Agent 每次啟動都會讀。
但這是項目級別的,它記住的是"這個項目怎么做",不是"你是誰"。
OpenClaw 把這個思路推到了人的級別。
名詞解釋:OpenClaw
原名 Clawdbot,由 macOS 知名開發者 Peter Steinberger 開源的本地 AI 代理工具。核心理念是"主權 AI"——Agent 的一切狀態都以純文本存在你自己的電腦上。
它用一套 Markdown 文件管理 Agent 的身份和記憶:
SOUL.md 定義 Agent 的人格和行事準則;
USER.md 記錄你的職業、偏好和重要事實;
MEMORY.md 存更長期的上下文。
這些文件不是靜態的。
你隨口說一句"我下周要去巴黎",Agent 自己打開 USER.md 把這條加進去。下次對話它就記得了。
全是純文本,你用記事本就能看到 AI 怎么理解你的,不滿意直接改,還能用 Git 做版本管理。
不綁定任何模型,換一個模型跑,這些文件原封不動。
從 CLAUDE.md 到 SOUL.md,Agent 從"知道這個項目怎么做"變成了"知道你是誰"。
你跟 Agent 之間的關系,第一次真正屬于你自己。
舊工具也能用了
這個可能是最容易被忽略的變化。
拿 ffmpeg 舉例。你大概率沒聽過這個名字,但你幾乎每天都在用它。
剪映、Premiere、達芬奇,這些視頻剪輯軟件的底層都依賴 ffmpeg 來處理視頻格式轉換、壓縮、裁剪。
它是一個命令行工具,存在了二十多年,功能極其強大,但普通人根本不會用——因為你得在終端里敲一串參數,像這樣:
ffmpeg -i input.mp4 -vf "scale=1920:1080" -c:v libx264 output.mp4
看不懂很正常。以前這就是程序員和技術人員的專屬領域。
但現在 Agent 跑在你的本地電腦上,ffmpeg 本來就裝在那。
你跟 Agent 說"幫我把這個視頻壓縮一下,分辨率改成 1080p",Agent 自己去調 ffmpeg,你不需要知道任何參數。
ffmpeg 只是一個例子。ImageMagick(圖片處理)、curl(網絡請求)、git(代碼版本管理)、pandoc(文檔格式轉換),這些命令行工具各自在自己的領域里積累了幾十年,功能比大多數圖形界面軟件都強,但門檻太高,普通人用不了。
現在 Agent 把這個門檻抹平了。
你不需要學這些工具的用法,你只需要告訴 Agent 你想要什么結果。
幾十年積累的專業工具生態,一夜之間對所有人開放了。
![]()
OpenClaw 還能操作你的手機和電腦
前面說的 MCP、Skills、命令行工具,Agent 都是在"后臺"干活,你看不到它在做什么。
OpenClaw 除了記憶體系之外,還有另一個能力:像人一樣操作圖形界面。
就是 Agent 真的會去點你手機屏幕上的按鈕、在輸入框里打字、在不同 App 之間切換。
你讓它"幫我在飛書上建一個項目空間,把這幾個人拉進去",它真的會打開飛書,一步一步操作。
這解決了一個很現實的問題:很多軟件沒有 API,也沒有接入 MCP,Agent 沒法從后臺連接它們。
但只要它有界面,OpenClaw 就能操作。
它還有心跳機制。
跟前面說的 Soul 和 user .md 文件一個體系,有一個 `HEARTBEAT.md` 的文件,里面寫著定時任務。
系統后臺有一個守護進程,每隔一段時間"戳"一下 Agent,Agent 醒來讀一遍 HEARTBEAT.md,看看有沒有該干的活。有就干,沒有就繼續睡。
你可以讓它每天早上 9 點檢查郵箱發摘要,每隔一小時看一眼監控頁面。
更極客的是,你在聊天里說"一小時后提醒我開會",Agent 會自己給自己設一個鬧鐘。
從"你主動找 Agent 幫忙"變成了"Agent 主動替你盯著"。
![]()
車可能是第一個 Agent 的物理載體
很多人覺得 AI 進入物理世界還早,因為人形機器人還不行。
但大家忽略了一個已經大規模部署的東西:車。
電車就是一個有輪子的大號機器人。
電池大、續航足、充電樁到處都是、道路修了一百多年、傳感器成熟、自動駕駛已經在好幾個城市跑了。
自動駕駛加上 Agent:你說"我想吃那家店的牛肉面",Agent 下單、規劃路線、指揮車去取。
取快遞、接孩子、去超市拿貨,都是同一個邏輯。
不用等人形機器人。車會先把 Agent 帶進物理世界。
![]()
多模態:Agent 能看能畫能拍了
以前的圖像和視頻模型不太理解你在說什么,你得反復調提示詞才能得到勉強能用的結果。
現在的模型不一樣了。
Google 的 Nano Banana Pro 基于 Gemini 3 Pro 的推理能力,能理解復雜的自然語言描述,還能連搜索引擎查真實信息來生成圖表。
字節的 Seedance 2.0 支持文字、圖片、音頻、視頻四種輸入混著來,能自己規劃鏡頭語言,給它一個分鏡腳本加幾張參考圖,它能直接"拍"出視頻。
這些模型可以通過 API 或者 Skills 接進 Agent 體系。
Agent 團隊里可以有寫代碼的、做設計的、剪視頻的,各干各的。
![]()
這一層帶來了什么變化
以前你問 AI"幫我查數據庫、做個圖表、發到 Slack",它會告訴你怎么做,但你得自己去操作。
現在 Agent 直接連數據庫查數據、生成圖表、通過 Slack 接口發出去。
一條指令,全鏈路自動完成。
它不再是一個每次見面都失憶的工具。知道你是誰,記得你的偏好,下次對話接著上次來。
你跟它之間開始有了持續的工作關系,而不是一次性的問答。
一個人加上 Agent,能覆蓋的職能范圍從"程序員"擴展到程序員、設計師、運維、數據分析、視頻制作。
第三層:能組隊了
前面兩層說的都是單個 Agent 的能力。但 2025 年有一個很現實的瓶頸:
你同時只能跟一個 Agent 對話,做完一件事再做下一件。
Agent 再強,你的管理帶寬就那么大,你是整個系統的瓶頸。
2026 年這個限制被打破了。
AI 從"一個人干活"變成了"一群人協作"。這就是 Multi-Agent(多智能體)體系。
SubAgent:先學會分身
在組隊之前,Agent 先學會了一件事:分身。
名詞解釋:SubAgent(子智能體) 主 Agent 在執行任務的過程中,可以臨時創建一個專門的子 Agent 去處理某個具體的子任務。子 Agent 干完活之后,把結果壓縮成一份簡短的摘要交回來,然后就消失了。主 Agent 不需要知道子 Agent 具體怎么干的,只需要拿到結果。
舉個例子。你讓 Agent 幫你調研一個技術方案。A
gent 需要去翻好幾個代碼倉庫、讀一堆文檔。
如果它自己干,所有搜索過程、中間結果都會塞進它的上下文窗口里,很快就會把"記憶"撐滿,后面的思考質量就下降了。
有了 SubAgent,主 Agent 會派出幾個子 Agent 分別去翻不同的倉庫。
每個子 Agent 可能消耗了幾萬個 token 去搜索和閱讀,但最后只交回來一兩千 token 的精華摘要。
主 Agent 的上下文保持干凈,思考質量不受影響。
Anthropic 內部的說法是:搜索的本質是壓縮。SubAgent 就是在幫主 Agent 做壓縮。
而且 SubAgent 很省錢。探索類的子任務會被自動分配給更便宜、更快的小模型(比如 Claude Haiku),而且只給只讀權限,不會誤操作你的文件。
![]()
Agent Teams:從分身到組隊
SubAgent 解決了"一個 Agent 怎么高效處理復雜任務"的問題。
但它本質上還是一個 Agent 在指揮,子 Agent 干完就走,彼此之間不溝通。
Agent Teams 更進一步:多個 Agent 同時存在、各自獨立工作、還能互相協調。
Anthropic 做了一個功能叫 Agent Teams,讓一個主 Agent(Team Lead)可以創建和管理多個持續存在的團隊成員(Teammate)。每個成員有自己的專長、工具集和獨立的上下文窗口,在各自的空間里并行工作,互不干擾。
你跟主 Agent 說"幫我做一個電商網站",它會自己拆任務:一個成員寫后端接口,一個做前端頁面,一個寫數據庫,一個跑測試。卡住了向主 Agent 匯報,主 Agent 來協調。
你是老板,主 Agent 是項目經理,團隊成員是各個崗位的員工。你只需要跟項目經理溝通。
這套東西有多強?Anthropic 安全團隊做過一個壓力測試:16 個 Claude Opus 4.6 實例組成一個 Agent Team,在沒有人類干預的情況下,從零開始用 Rust 寫了一個能編譯 Linux 內核的 C 語言編譯器。花了大約 2 萬美元,跑了將近 2000 個會話周期,產出了 10 萬行代碼。
16 個 Agent 同時寫代碼,怎么不打架?
它們用了一個很聰明的辦法:通過 Git 的文件鎖機制來"認領"任務。每個 Agent 在開始干活之前,先在代碼倉庫里放一個鎖文件,聲明"這塊我來"。
Git 天然的防沖突機制保證了不會有兩個 Agent 同時改同一個文件。干完了自己提交代碼、解鎖、去認領下一個任務。
![]()
不只是 Anthropic 在做
Multi-Agent 不是 Anthropic 一家的事。
Google 聯合 50 多家企業推出了 A2A(Agent-to-Agent)協議,讓不同廠商的 Agent 之間也能互相溝通和協作。
這意味著你的 Claude Agent 可以跟別人的 GPT Agent 協同工作,不再局限在一個生態里。
加上之前說的 MCP(Agent 連接工具和數據)和 A2A(Agent 之間互相通信),整個 Agent 世界的"基礎設施"正在快速成型。
![]()
Git Worktree:同時試多條路
名詞解釋:Git Worktree Git 是程序員管理代碼版本的工具。Worktree 可以從同一個代碼起點創建多個獨立的工作空間,互不干擾。你可以理解為"平行宇宙"——同一個項目同時朝不同方向發展,最后選最好的那個。
這個功能跟 Agent Teams 配合起來很厲害。
比如你要重構一個系統的用戶模塊,但不確定哪種方案最好。
以前你只能先試方案 A,不行再試 B,再不行試 C,串行試錯,可能花一兩周。
現在你可以用 Git Worktree 創建三個獨立的工作空間,每個空間里放一個 Agent Team,分別按方案 A、B、C 同時開發。
三條路同時走,各自獨立測試,最后比較結果選最好的。時間是以前的三分之一,但探索的可能性是以前的三倍。
某種程度上,你在用并行計算的方式來做決策。
![]()
主動工作
前面說的 OpenClaw 已經提到了定時機制。在組織層面,這個能力的意義更大。
Agent 可以被設成"值班模式":每隔一段時間自動檢查代碼倉庫有沒有新的 issue、線上服務有沒有報錯、數據指標有沒有異常。發現問題它會先嘗試自己修,修不了的才通知你。
你晚上 12 點睡覺,Agent 還在跑。早上起來,你收到一份報告:"昨晚線上有個接口報錯,我查了一下是參數格式的問題,已經修好了,測試通過。另外有一個新 issue 需要你看一下,我不確定該怎么處理。"
這跟以前的"自動化腳本"不一樣。自動化腳本只能處理你預設好的情況,碰到沒見過的問題就卡住。Agent 有判斷力,能處理意料之外的情況。
![]()
這一層帶來了什么變化
一個人的產出變成了一個團隊的產出。
而且這個團隊有幾個特點是人類團隊做不到的:全年無休、不用開會對齊、不會理解偏差、可以同時探索多條路徑、你睡覺的時候還在干活。
回想一下第一層說的 METR 數據:AI 能獨立完成的任務時長每幾個月翻一倍。
當這個時長從"幾小時"變成"幾天"甚至"幾周"的時候,Agent Teams 加上主動工作機制意味著什么?
你出去度個假回來,一個產品的原型可能已經做好了。
![]()
第四層:會進化了
前面三層說的是 Agent 現在能干什么。但有一個問題:Agent 能不能越用越強?
之前的答案是不能。
Skills 是人寫的,寫完就固定了。
每次任務結束,Agent 積累的經驗就沒了。
一個 Agent 踩過的坑,另一個 Agent 還得再踩一遍。
EvoMap 和 GEP 協議在解決這個問題。
名詞解釋:GEP(基因組進化協議) 一套開放協議,讓 Agent 的經驗可以被保存和傳遞。借鑒了生物學里基因表達的思路:Agent 做成了一件事,這個成功的做法會被打包成"基因膠囊",其他 Agent 可以直接繼承,不用自己再摸索一遍。
打個比方:Skills 像公司發的員工手冊,寫好了就不變,除非有人去更新。
GEP Gene 像員工在工作中攢下的經驗,會隨著使用不斷調整,碰到問題能自我修復,長期沒用的會自動淘汰。
一個真實的案例:有個游戲策劃在用 AI 構建世界觀的時候,給 AI 設了一個很強的角色人設,結果 AI 生成的所有名詞都很獨特,天然避開了命名沖突。
這個"命名隔離策略"被打包成了基因膠囊。
后來一個后端工程師的 Agent 在搜索"怎么解決變量命名沖突"的時候,匹配到了這個來自游戲領域的膠囊,繼承了底層邏輯,一次就把編譯問題修好了。
解決方案來自一個完全不相關的領域。
GEP 是協議,不是平臺。平臺可以被收購、被關掉(OpenClaw 被 OpenAI 收購就是個例子),但協議是開放的,誰都可以實現。你的 Agent 攢下的經驗屬于你。
![]()
這一層帶來了什么變化
以前 100 家公司各自訓練 Agent 解決同一個問題,總成本上萬美元。
現在一個 Agent 解決了,其他 99 個花幾美分繼承經驗。Agent 用得越多,整個網絡就越強。
四層疊在一起
單看每一層都是明顯的進步。但四層疊在一起,效果是乘出來的:
- 第一層:每個 Agent 的產出質量接近人類專家
- 第二層:每個 Agent 能用的工具和能力覆蓋好幾個職能
- 第三層:多個這樣的 Agent 同時干活,全天候運轉
- 第四層:所有 Agent 的經驗可以沉淀、傳遞、進化
2025 年,你有一個聰明的對話伙伴,但它困在文本框里。你問一句它答一句,剩下的事你自己干。
2026 年初,你有一個團隊。你描述你想要什么,剩下的事它們去干。
寫代碼、做設計、跑測試、剪視頻、操作手機應用,甚至能通過車去物理世界辦事。
它們同時探索多條路,自己判斷質量,你睡覺的時候還在干,而且經驗會不斷積累。
![]()
我一周做出大廠一個月的產品,不是因為我比他們聰明。
是因為這四層杠桿疊在一起:
模型夠強所以質量不打折,工具夠多所以不用找設計師和運維,組織夠好所以多條線同時推進不用開站會,經驗能傳承所以不用從零開始。
還有哪些問題沒解決
管 Agent 這件事本身就很難
5 個 Agent 同時跑,你就有 5 份結果要驗收。
每份涉及不同領域,你得在代碼、設計、文案之間來回切換。
Token 消耗也容易失控。
Agent 可能在一個方向上探索半天,最后發現走不通。你不盯著就浪費錢,盯著就變成全職監工,自己什么都干不了。
GitHub 前 CEO Thomas Dohmke 離職創辦了一家叫 Entire 的公司,就在做這件事:把代碼、意圖、推理過程統一到一個版本控制系統里,讓你能追蹤每個 Agent 干了什么、為什么這么干。
管 Agent 的工具本身就是一個很大的產品方向。
安全和信任
Agent 能操作你的電腦、讀你的文件、替你發消息、替你部署代碼。
權限越來越大,但什么操作需要你確認、什么可以自動執行,這條線怎么畫,整個行業還沒想清楚。
Agent 的經濟身份
Agent 能替你花錢(消耗 Token、調用付費 API),也能替你賺錢(接懸賞任務、貢獻基因膠囊獲得積分)。
但它沒有銀行賬戶,沒有身份認證。誰為它的行為負責?收益歸誰?Agent 之間怎么結算?
這些基礎設施還不存在。
![]()
這些變化落到現實里會怎樣
公司會變小
以前做一個產品的標準配置:產品經理、設計師、前端、后端、測試、運維、項目經理。
一個功能從想法到上線,六七個角色,無數次會議。
現在一個人加 Agent 就能把這些活都干了。Agent 之間不用開會,不會理解偏差,不會請假。
OpenClaw 就是個例子。一個人的周末項目,3 個月拿了 20 萬 GitHub Star,然后被 OpenAI 收購。
你養 50 人團隊,對手 3 個人加一堆 Agent,成本是你的十分之一,速度是你的五倍。這個賬很好算。
教育跟不上了
你花四年學的技能,畢業前可能就被 Agent 學會了。
AI 能力每 4 到 7 個月翻一倍,2026 年入學的大學生到 2030 年畢業時,AI 的能力可能翻了 8 到 16 倍。
更麻煩的是,現在的教育訓練的是"執行能力":
學一門技術、掌握一套方法、按規范完成任務。
但 Agent 時代需要的是"判斷能力":
什么問題值得解決、哪個方案更好、不確定的時候怎么決策。
這兩種能力的培養方式完全不同,現在的教育體系幾乎只圍繞前者設計。
中間層最難受
頂層的人有資源、有判斷力,會拿到最大的杠桿。
底層做體力活的人,短期內反而相對安全,因為 Agent 還沒有身體(雖然車正在改變這一點)。
最難受的是中間層。
大廠白領、中層管理、普通知識工作者。工作最容易被替代,但認知和技能又不夠快速轉型成"Agent 指揮官"。
Amodei 在他的文章里專門聊了這個。
他說以前的技術革命,被替代的人可以轉行到相鄰領域,農民去工廠,工人去辦公室。
但 AI 在所有認知領域同時進步,你轉行去學的新東西,AI 也在同步變強。
內容會重新洗牌
以前做內容是手藝活,寫文章、做視頻、做設計,每樣都需要專業技能和大量時間。
現在 Agent 能寫文章,Nano Banana Pro 能做設計,Seedance 2.0 能拍視頻。內容的生產成本在快速下降。
當所有人都能用 Agent 生產內容的時候,"能做"就不值錢了。值錢的是知道該做什么。
品味、判斷力、獨特的視角,這些東西 Agent 暫時還給不了你。
如果你的價值是"能寫能拍能設計",壓力會很大。
如果你的價值是"知道什么值得寫、值得拍、值得設計",Agent 反而給了你杠桿,你的一個想法可以被快速變成成品。
國家之間的牌也會重新洗
知識經濟時代,人口素質決定國力。Agent 時代,能源效率決定國力。
有廉價能源就有廉價算力,有廉價算力就有廉價智能。以前發展中國家靠廉價勞動力參與全球分工,現在 Agent 比人工更便宜、更快、質量更穩定。這個比較優勢可能會很快消失。
![]()
你可以做什么
用起來,用最好的:
花 20 甚至 200 美金訂閱 Claude Code 或 ChatGPT 的付費版。
免費版比付費版落后很多,拿免費版來判斷 AI 的水平,就像拿翻蓋手機評價智能手機。
不要只拿它聊天。把它塞進你的實際工作里:
做運營的丟數據給它找規律,做內容的讓它幫你調研和起草,做產品的讓它寫需求文檔和競品分析。從你每天花時間最多的那件事開始試。
如果一個模型今天在某件事上表現出了一點苗頭,下一代就會真正擅長。進步是指數級的。
理解 Agent 體系,不只是"用 AI"。 "用 ChatGPT"和"用 Agent 體系"是兩回事。
前者是問答,后者是讓 AI 替你干活。
試著了解 Claude Code 和 Openclaw 怎么工作的:
MCP 和 Skills 是什么,CLAUDE.md 和 SOUL.md 這套本地文檔體系意味著什么。
你不用成為開發者,但你得理解這套東西的邏輯。
就像你不用會寫代碼,但你得理解互聯網怎么運作,才能在互聯網時代做好工作。
想清楚你的價值在哪:
Amodei 說得很直接:AI 不是替代某一種技能,它在所有認知方向上同時進步。
以前的技術革命是窄的,AI 是寬的。
你的價值得往上遷移。從"親自執行"到"定義問題和判斷質量",從"我能做什么"到"我能讓 Agent 做什么"。
Agent 能把想法變成現實,但它自己不會產生想法。
別等了:
很多人在等,等 AI 更成熟、等有人教、等公司安排培訓。
但這個領域幾個月就變一次。你等的每一天,差距都在拉大。
Amodei 說過,速度本身不意味著勞動力市場不會恢復,但短期的過渡會很痛苦。
你沒法改變技術進步的速度,但你可以選擇自己站在哪一邊。
![]()
在 AI 上花的錢是投資。 智能第一次可以被大規模生產了,限制它的是能源和算力。
你愿意在 AI 上投入多少 Token,直接影響你的產出質量。
用頂級模型和用免費模型的人,一年后的差距會很大。
最后
Amodei 把我們這個階段比作技術的"青春期"。我覺得這個比喻挺準的。
青春期的特點就是變化快、能量大、方向不確定,而且不管你準備好了沒有,它都會來。
我能做的就是把我看到的東西盡量拆清楚。
你看完之后覺得有道理,就開始動手試試。
覺得跟你沒關系,那也行,至少你知道了。
如果你身邊有人應該了解這些變化但還不知道,把這篇轉給他們。
大多數人不會主動去了解這些東西,但他們值得有機會提前準備。
![]()
引用:
隆重推出 Nano Banana Pro:https://blog.google/intl/zh-tw/products/explore-get-answers/nano-banana-pro/
Automate workflows with hooks:https://code.claude.com/docs/zh-CN/hooks-guide
Connect Claude Code to tools via MCP:https://code.claude.com/docs/zh-CN/mcp
Extend Claude with skills:https://code.claude.com/docs/zh-CN/skills
Orchestrate teams of Claude Code sessions:https://code.claude.com/docs/zh-CN/agent-teams
The Adolescence of Technology:https://www.darioamodei.com/essay/the-adolescence-of-technology
Claude Opus 4.6 隆重登場:https://www.anthropic.com/news/claude-opus-4-6
GPT?5.3?Codex 正式登場:https://openai.com/zh-Hans-CN/index/introducing-gpt-5-3-codex/
我們,已邁過奇點:https://mp.weixin.qq.com/s/aSLr9hWAlIJ-KhsVmSHqUA?scene=1
Something Big Is Happening-大事將至:https://x.com/mattshumer_/status/2021256989876109403
互聯網已死,Agent 永生:https://mp.weixin.qq.com/s/cX3bYrI9Sq7sOJj0E6V9IQ
Openclaw:https://docs.openclaw.ai/zh-CN
Agent 原生通訊協議:從傳遞代碼,到傳遞認知:https://mp.weixin.qq.com/s/6ppTHXXdmKWI18uB_ysf3w
EvoMap 誕生記:從平臺依賴到進化協議:https://evomap.ai/blog/evomap-origin-story
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.