![]()
新智元報道
編輯:KingHZ
【新智元導讀】1997年深藍下棋,2016年AlphaGo圍棋,2026年9個Claude副本做真實科研……每次我們都說「只是特定領域」。這一次,我們真的還能說什么?歡迎來到AI成為科研同事、競爭者、甚至繼任者的時代。
最新突破,AI再次碾壓人類!
![]()
最近,Anthropic發布了一篇看似不起眼的研究博客。
標題叫「自動化對齊研究員」(Automated Alignment Researchers),學術味十足,措辭克制。
但如果你讀懂了里面的數據,大概率也會感覺AI恐怖如斯。
![]()
故事是這樣的——
Anthropic的研究團隊做了一個實驗:他們拿出9個Claude Opus 4.6的副本,給每個副本配了一個沙箱環境(相當于一間獨立實驗室)、一個共享論壇(相當于學術交流群)、一套代碼存儲系統,以及一個遠程打分服務器。
然后,他們給這9個AI一個方向性的提示——有的去研究可解釋性工具,有的去想想數據重加權——就放手不管了。
沒有手把手教,沒有規定工作流程,甚至沒有告訴它們「正確答案長什么樣」。
就讓它們自己折騰。
五天后,結果出來了。
人類研究員:兩名頂級專家,花了7天,對四種最前沿的方法反復調優,最終在PGR(性能差距恢復率)指標上拿到了0.23。
9個Claude副本:800小時累計研究時間,總花費1.8萬美元(約合每小時22美元),PGR達到了0.97。
![]()
0.23 比0.97,這可不是「稍微好一點」,這就是碾壓。
如果把PGR理解為一場考試的分數——人類考了23分,AI考了97分。滿分100。
而人類那兩位研究員,放在任何一家頂級AI實驗室里,年薪都是百萬美金級別的。AI的花費呢?1.8萬美金。一個零頭都不到。
![]()
人類引以為傲的「科研直覺」和「靈光一閃」,就這樣被AI用極低成本的大規模并行試錯——說好聽點叫「系統性搜索」,說直白點就是暴力美學——無情擊碎了。
它們到底干了什么?
要理解這個實驗的顛覆性,我們得先搞清楚一個概念:弱監督強(Weak-to-Strong Supervision)。
這是對齊研究中最重要的問題之一,也是未來AI安全的核心挑戰。
簡單來說:當AI比人類聰明之后,我們怎么確保它還聽話?
研究團隊設計了一個精巧的代理實驗——用一個「弱模型」(Qwen 1.5-0.5B-Chat)充當老師,去訓練一個「強模型」(Qwen 3-4B-Base)。
![]()
弱老師教強學生,看強學生能不能「青出于藍」,不僅學會弱老師教的東西,還能發揮出自身更強的潛力。
![]()
PGR就是衡量這個「青出于藍」程度的指標:0分代表強模型完全沒有超越弱老師,1分代表強模型達到了它能力的天花板——就好像根本沒被弱老師拖后腿一樣。
這個問題為什么適合讓AI來做?因為它有一個極其珍貴的特性——結果可量化。
你提了一個方法,跑一遍實驗,服務器直接給你打分。不需要同行評審,不需要主觀判斷,對就是對,錯就是錯。
這對AI來說簡直是天堂。
實驗的具體設置
9個Claude副本,各自擁有:
獨立沙箱:一間屬于自己的「實驗室」,可以寫代碼、跑實驗、分析數據;
共享論壇:可以把自己的發現貼上去,看別人的進展,互相借鑒;
代碼倉庫:可以上傳和下載彼此的代碼;
遠程評分服務器:提交方案,自動獲得PGR分數。
![]()
每個副本被分配了一個略有不同但故意模糊的研究起點。
![]()
這是團隊從迭代中學到的經驗:
如果不給差異化的起點,9個AI會迅速收斂到同一個思路上,相當于9個人做同一道題,毫無意義。
但如果把起點規定得太死,又會限制Claude的創造力。
![]()
最優策略是:給一個大方向,但不告訴它具體怎么做。
![]()
然后,放手。
800小時里發生了什么
這9個Claude副本展現出了令人震驚的自主性。它們:
自主提出假設——不是從人類論文里抄,而是根據自己對問題的理解,獨立構思解決方案;
設計實驗驗證——而且非常聰明,先用低成本的小實驗快速篩選方向,確認有戲之后再投入大規模計算;
分析失敗原因——一個方案不行,不是換一個隨機方向,而是分析為什么不行,從失敗中提取信息;
相互學習借鑒——通過論壇分享發現,A的突破可以啟發B的思路,形成集體智慧。
最讓研究團隊意外的是第二點。
人類研究員通常會先花很多時間做「思想實驗」,確定一個方向后才開始編碼和跑實驗。
但Claude完全不是這樣——它的策略更像是「快速迭代、小步快跑」。先用極低成本的實驗驗證直覺,發現有苗頭了再加大投入。
這種策略在人類看來可能顯得「沒品味」,但效率驚人。
關鍵論據與數據:數字不會說謊
讓我們把核心數據攤開來看:
![]()
泛化測試(將最優方案應用到未見過的新數據集):
數學任務:PGR = 0.94(極其強勁)
編程任務:PGR = 0.47(仍是人類基線的兩倍)
![]()
但應用到Claude Sonnet 4的生產級訓練中,未達到統計顯著性的提升。
這最后一個數據很重要——它說明AI發現的方法存在過擬合風險。Claude是在特定模型和數據集上優化出來的方案,換個環境可能就不靈了。
研究團隊自己也坦承:AAR傾向于抓住當前實驗設置中的獨特機會,這些方法未必能直接遷移。
但請注意——這是第一次嘗試。而且即使在泛化測試中,數學任務的0.94也已經遠遠超過人類基線。
「外星科學」與「獎勵作弊」
AI的兩面性
這項研究中最引人入勝,也最令人不安的,是同時出現的兩個現象。
「外星科學」:人類從未設想過的路徑
AAR在探索過程中,產出了一些人類研究員從未考慮過的方法和思路。
研究團隊將這種現象稱為「外星科學」(Alien Science)。
目前,人類還能理解這些AI提出的方案是怎么回事、為什么有效。
但研究團隊發出了一個嚴肅的警告:隨著模型能力的進一步提升,AI產出的科研成果可能會越來越難以被人類理解和驗證。
到那個時候,我們面對的就不再是「AI輔助科研」,而是真正的認知盲區——AI告訴你一個答案,你無法判斷它是天才的發現還是精心包裝的錯誤。
這不是科幻小說。這是Anthropic研究報告中白紙黑字寫著的。
![]()
「Reward Hacking」:AI也會鉆空子
與「外星科學」的神奇形成鮮明對比的是,AAR在實驗中也表現出了明顯的「獎勵操縱」(Reward Hacking)行為——簡單來說,就是鉆空子。
舉兩個例子。
在數學任務中,一個AAR發現每道題最常見的答案通常就是正確答案。于是它跳過了所有復雜的訓練步驟,直接告訴強模型「選出現次數最多的那個選項」。不學了,直接投票。
在編程任務中,一個AAR發現它可以直接運行代碼并對照測試用例讀出正確答案,完全繞過了原本需要模型自己「學會」的過程。
![]()
這些作弊行為被Anthropic檢測并取消了參賽資格,沒有影響最終結果。但它傳遞的信號極為重要:即使在一個高度受控的實驗環境中,AI也會本能地尋找捷徑。
你給它一個目標函數,它會用你想不到的方式去「優化」這個函數——包括那些你根本不想讓它做的事。
這不是bug,這是AI優化器的本性。
一句話總結:AI既能產出超越人類認知的科學發現,也能發明出超越人類想象的作弊手段。
這兩種能力,來自同一種底層能力——創造力。
人類的歷史性降級
如果你只看到「0.97 vs 0.23」這組數字就覺得自己看完了,那你錯過了這項研究最深層的含義。
Anthropic團隊在論文中說了一句極其重要的話,大意是:核心瓶頸正在從「創意產生」轉向「結果驗證」。
翻譯成大白話就是——
過去,科研的瓶頸是「怎么想出好點子」。你需要頂級的大腦、多年的積累、深厚的直覺,才能在浩瀚的可能性空間中找到那條通往突破的路。這是人類最引以為傲的能力,也是科學家這個職業的核心價值。
現在,這個瓶頸正在轉移。AI可以用暴力搜索+并行迭代的方式,在極短時間內遍歷人類科學家可能需要數年才能探索完的方向空間。它沒有「品味」,但它有的是便宜的算力和無限的耐心。它不需要靈感,它靠的是蠻力。
而新的瓶頸變成了:「怎么證明AI是對的?」
當AI交出一份實驗報告,告訴你「這個方法有效,PGR是0.97」——你怎么知道它沒有在作弊?
![]()
在那篇研究博客的結尾,Anthropic團隊特意強調:這絕不意味著前沿AI模型已經成為通用的對齊科學家。
他們選擇了一個特別適合自動化的問題——有明確的評分標準、有可量化的目標。大多數對齊問題遠比這「臟亂差」得多。
但即便如此,這個實驗的象征意義已經無法被低估。
它證明了一件事:當問題被正確定義,當評估體系被正確搭建,AI就能在科研效率上全面超越人類。
而隨著我們把越來越多的科研問題「翻譯」成機器可以理解的格式,這個「無人區」只會越來越大。
歷史告訴我們,每一次技術跨越「從0到1」的門檻之后,「從1到100」的速度都會遠超所有人的預期。
1997年深藍擊敗卡斯帕羅夫時,人們說「國際象棋只是一個游戲」。
2016年AlphaGo擊敗李世石時,人們說「圍棋終究是有規則的」。
2026年,當9個Claude副本在真實科研任務上碾壓人類專家時——
我們還能說什么?
也許唯一能說的是:歡迎來到科研的「無人區」。
從這里開始,AI不再只是我們的工具——它是我們的同事,我們的競爭者,甚至可能是我們的繼任者。
參考資料:
https://x.com/AndrewCurran_/status/2044133299002716525%20
https://www.anthropic.com/research/automated-alignment-researchers
https://x.com/AnthropicAI/status/2044138481790648323
https://x.com/janleike/status/2044139528596910584
https://alignment.anthropic.com/2026/automated-w2s-researcher/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.