337p人体粉嫩胞高清图片,97人妻精品一区二区三区在线 ,日本少妇自慰免费完整版,99精品国产福久久久久久,久久精品国产亚洲av热一区,国产aaaaaa一级毛片,国产99久久九九精品无码,久久精品国产亚洲AV成人公司
網易首頁 > 網易號 > 正文 申請入駐

大模型的無監督強化學習能走多遠?清華團隊給出了系統性答案

0
分享至



強化學習的下一站:從監督到無監督

強化學習正在重塑大模型能力邊界。OpenAI o3、DeepSeek-R1、Gemini 3 等頂尖模型都在用大規模 RLVR(可驗證獎勵強化學習)刷新推理任務的天花板。但所有人都知道,純監督式訓練不可持續。人工標注成本指數級增長,在專業領域獲取可靠標注越來越難。當模型能力逼近甚至超越人類專家時,誰來給它打分?

從 TTRL 開始,無監督 RLVR(Unsupervised RLVR)應運而生,讓模型在沒有人工標注的情況下持續進化。這不僅是降本增效的需求,更是通往超級智能的必經之路。就像預訓練用無標注數據 training 出了 GPT,無監督 RLVR 能否延續這一奇跡?



  • 論文鏈接: https://arxiv.org/abs/2603.08660
  • GitHub: https://github.com/PRIME-RL/TTRL/tree/urlvr-dev
  • X Thread: https://x.com/HBX_hbx/status/2031406636930338828

清華團隊一項最新研究,給這個看似美好的圖景畫出了第一條邊界。研究者系統解剖了無監督 RLVR 的內在機制,發現所有基于模型自身信號的內在獎勵方法,無論多數投票、熵獎勵還是其他變體,都遵循著一條相似的軌跡:訓練初期性能快速攀升,但到達某個臨界點后,開始不可逆地滑落。這不是某個方法的缺陷,而是機制的宿命:它們本質上都在銳化模型已有的偏好,像一個回聲室,讓模型不斷重復自己最初相信的東西。如果初始自信恰好正確,效果驚人;如果錯配,坍塌只是時間問題。

但這不意味著內在獎勵沒有價值。在小規模測試時訓練中,它依然能穩定提升性能,即使模型一開始全是錯的,也能在自我糾偏中進化。更重要的是,研究者找到了一個 “預言指標”,可以在大規模訓練前預判模型的可訓練性,無需跑完整條曲線。

當內在獎勵受限于模型自身的回聲時,外部獎勵方法開始展現不同圖景,比如讓模型利用生成與驗證的不對稱性來錨定獎勵。這類方法正在突破內在獎勵的天花板,讓無監督強化學習真正走向可擴展。

通往超級智能的路上,我們需要的不是盲目相信模型可以自我進化,而是知道什么時候該讓它傾聽自己的回聲,什么時候該把它推向真實世界的驗證。



內在獎勵方法:繁榮表象下的深層問題

過去一年,各種 “內在獎勵” 方法密集涌現。從多數投票到基于模型自信度 / 熵的變體,它們利用模型內在信號來構造 proxy reward,訓練前期性能飆升,甚至一度超過有監督方法

研究者將這些方法根據獎勵的來源歸納為兩類:一類基于 certainty,直接取模型在推理軌跡上的置信度指標作為獎勵;另一類基于 ensemble,用多次 rollout 后的集成結果(如多數投票)來錨定正確。



雖然獎勵的來源是免費的,但是代價卻是昂貴的。在早期訓練性能飆升之后,繼續訓練會觸發典型的 reward hacking:

  • proxy reward 還在持續上漲,真實 performance 卻在崩潰
  • 模型越來越自信,但答案卻越來越離譜
  • 不同內在獎勵方法在不同模型上表現天差地別

更關鍵的是,沒人說得清為什么 work,又為什么 fail

我們做了什么:拆開黑箱,劃清邊界

我們不想只是 “提出新方法刷個點”,我們想回答那個沒人說清的問題:

無監督 RLVR 的 scaling 上限在哪里?如果有上限,邊界在哪里?

為此,我們做了五件事:

  • 統一理論框架:把看似五花八門的內在獎勵方法歸到同一個機制下,揭示它們殊途同歸的本質 —— 銳化模型初始分布,并給出理論收斂邊界。
  • 大規模實證:11 個模型 × 5 種內在獎勵方法 × 超參數掃描,用數據說話,驗證了 “先升后降” 不是偶然,而是普適規律。
  • 畫出安全區:不是所有場景都會崩潰。我們發現,在小規模 test-time training 中,內在獎勵可以安全使用,即使初始全錯也能穩定進化。
  • 化陷阱為路標:rise and fall 不只是風險,它本身就是信息。我們用它提煉出模型先驗指示器,無需跑完整條 RL 曲線,就能預判一個基模是否適合強化學習。
  • 探路替代方案:既然內在獎勵有天花板,我們就看向外部。初步探索基于生成 - 驗證不對稱的外部獎勵方法,看它能否真正突破內在獎勵的 scaling 極限。

四個關鍵發現

發現一:成敗取決于 "confidence-correctness" 對齊程度

我們建立了內在獎勵方法的統一理論,揭示所有內在獎勵方法的本質:銳化分布,即放大模型已有偏好,而非創造新知識。這個機制有個特性:

  • 如果模型初始傾向正確 → 銳化有效,性能提升
  • 如果模型初始傾向錯誤 → 銳化有害,加速崩潰

我們定義模型初始傾向(或者稱為模型先驗)為confidence-correctness 對齊程度,即當我們僅提升模型的自一致性時,有多大可能就能直接做對更多的題目。換句話說,一個先驗比較強的模型,本身已經掌握了解決問題的大部分知識,只是不夠自信以至于說不出正確的答案。

我們測試了 11 個模型、5 種方法、4 個常用的超參數,結論似乎是殘酷的:崩潰不可避免,只是時間問題。即使最穩定的配置也撐不過幾個 epoch。這說明可能不是工程問題,是數學必然。



左:成敗取決于置信度 - 正確性對齊程度;右:單條數據上置信度與正確性隨訓練的演化

? 發現二:小場景里反而安全

Rise and fall 是宿命,但宿命有它的適用范圍。

當訓練數據足夠少,比如 Test-Time Training 這種特定領域場景,內在獎勵方法反而展現出難得的穩定。原因很樸素:只在少量樣本上優化自信度,模型跑不了多遠就到頭了。即便它在這些樣本上變得 “超級自信”,也難以引發全局的策略偏移,OOD 任務上的準確率依然穩穩守住。

更有意思的是一個極端實驗:研究者刻意選了 32 條模型全錯的樣本作為訓練集。也就是說,內在獎勵給出的 proxy reward 從一開始就是錯的。結果呢?OOD 測試集上的性能依然在穩定提升。

這說明,內在獎勵不是在教模型 “什么是對的”,而是在教它 “更相信自己”。即使信錯了,這種自我強化也被牢牢鎖在局部,翻不起大浪。



左:小規模 TTT 穩定提升,不崩潰;右:不同訓練集規模下策略的 KL 偏移

發現三:判斷模型適不適合做 RL

Rise and fall 不只是風險,它本身就是信息。

既然內在獎勵的成敗取決于模型初始的 “置信度 - 正確性” 對齊程度,那能不能用這個對齊度,提前判斷一個基模是否適合做 RL?畢竟,跑一次大規模 RL 的成本太高了,而學界一直缺一個輕量級的預判指標。

研究者找到了一把尺子:模型坍塌步數(Model Collapse Step),去測量一個模型在內在獎勵訓練下,能撐多少步才完全崩潰。邏輯很簡單,如果崩潰越晚,說明模型的初始先驗越好,它本身就掌握更多正確知識,只是不夠自信;而這種先驗,恰恰是標準有監督 RL 能夠放大的東西。換句話說,內在獎勵的崩潰點,就是模型 “RL 可訓練性” 的天然指示器。

結果也印證了這一點。Qwen 這種公認 “適合 RL” 的模型系列,在內在獎勵下撐得更久。更有意思的是,這個指標無需任何 ground truth 標注,預測準確率超過傳統的 pass@k。

把失敗變成路標,把昂貴的試錯變成輕量級的預判。



左:不同基模在無監督內在獎勵訓練下的模型坍塌步數;中:對應基模有監督 RLVR 的性能提升。無監督內在獎勵下崩潰越晚,有監督 RLVR 之后效果越好,預測準確率超過傳統的 pass@k。

發現四:外部獎勵才是 scalable 的方向

如果內在獎勵注定有天花板,那路在何方?

問題的根源在于獎勵的來源。內在獎勵方法用模型自己的置信度來訓練模型自己,這就像一個閉環回聲室,獎勵信號永遠受限于模型已知的東西。你無法用它教會模型真正不知道的知識。

但無監督 RLVR 不止于此。我們把外部獎勵方法歸納為兩類:

  • 利用無標注數據:從海量語料中挖掘獎勵信號。數據越多,獎勵信號越豐富,不會因為模型變強而枯竭。
  • 利用生成 - 驗證不對稱性:讓模型自己生成答案,再用外部工具(編譯器、證明助手、模擬器)驗證并提供環境反饋。這些驗證器不會因為模型變強而失效,它們的判斷永遠客觀。

我們初步測試了自驗證方法,結果展現出一條截然不同的曲線:持續改進,沒有崩潰。原因很樸素,獎勵不來自 “模型有多自信”,而來自 “答案能否通過客觀驗證”。想出解法可能很難,但檢查對錯往往簡單;這種不對稱性,把模型的進化錨定在真實世界的鐵律上,而不是自己的回聲里。

內在獎勵追問 “你相信自己嗎”,外部獎勵追問 “這是真的嗎”。通往 scalable 的無監督強化學習,答案或許就在后者。



寫在最后:邊界之外

我們花了許多篇幅去描繪無監督強化學習的邊界。但這張地圖的價值,從來不在于告訴你 "此路不通",而在于回答:在什么條件下,哪條路通

一個系統能否通過審視自己而變得更好,取決于它最初的判斷有多準確。內在獎勵方法失敗的原因,恰恰是它們成功的原因,都是同一個機制:自我強化。區別只在于,被強化的是真理還是偏見。

當我們認清內在獎勵的宿命,才真正看清外部獎勵的星辰大海。通往 scalable 的無監督強化學習,需要的不是盲目相信模型可以自我進化,而是知道什么時候該讓它傾聽自己的回聲,什么時候該把它推向真實世界的驗證。

內在與外部不是對立,而是工具箱里的不同工具。認清邊界,不是為了止步,而是為了在邊界內自由創造,在邊界外尋找新的可能

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
200億美元收益!NBA推進兩大計劃 每隊老板至少分到6.5億美元

200億美元收益!NBA推進兩大計劃 每隊老板至少分到6.5億美元

羅說NBA
2026-03-26 06:21:27
陳天橋:那一夜梁文鋒拒絕了我的投資,卻讓我決定投入10億美金去做另一件事

陳天橋:那一夜梁文鋒拒絕了我的投資,卻讓我決定投入10億美金去做另一件事

獵云網
2026-03-19 15:28:10
胡兵沒想到,張雪峰意外猝死僅1天,竟讓51歲瞿穎口碑再次暴漲

胡兵沒想到,張雪峰意外猝死僅1天,竟讓51歲瞿穎口碑再次暴漲

愛下廚的阿釃
2026-03-26 06:20:07
心跳成為“勝負手”:從張雪峰猝然離世看網球運動員的心臟之殤

心跳成為“勝負手”:從張雪峰猝然離世看網球運動員的心臟之殤

網球之家
2026-03-25 23:38:54
日媒重磅判斷:中國將成全球首個武器不用進口的大國

日媒重磅判斷:中國將成全球首個武器不用進口的大國

楊風
2026-03-24 22:16:20
人狂自有天收

人狂自有天收

李老逵亂擺龍門陣
2025-09-11 09:01:28
張雪峰母親:下崗擺攤育子上學,四年內喪夫又喪子,有錢又如何?

張雪峰母親:下崗擺攤育子上學,四年內喪夫又喪子,有錢又如何?

游戲收藏指南
2026-03-25 23:03:52
女生主動起來有多黏人?網友:這些女的太開放了

女生主動起來有多黏人?網友:這些女的太開放了

帶你感受人間冷暖
2026-01-27 00:20:06
海斯21分創加盟湖人后單場最高分 湖人尋覓的中鋒答案竟在這里?

海斯21分創加盟湖人后單場最高分 湖人尋覓的中鋒答案竟在這里?

仰臥撐FTUer
2026-03-26 11:00:08
美軍第82空降師3000人出兵,危急時刻,伊朗特種兵亮劍56沖和FPV

美軍第82空降師3000人出兵,危急時刻,伊朗特種兵亮劍56沖和FPV

軍機Talk
2026-03-25 17:17:57
真要走了?5首輪豪賭!火箭再梭哈,杜蘭特+字母哥?

真要走了?5首輪豪賭!火箭再梭哈,杜蘭特+字母哥?

籃球盛世
2026-03-25 22:25:51
美軍全球調兵、要打地面戰爭?伊朗:要給特朗普一個“巨大驚喜”

美軍全球調兵、要打地面戰爭?伊朗:要給特朗普一個“巨大驚喜”

野史日記
2026-03-25 10:00:12
伊朗掛斷王毅電話后發全球照會,薩勒曼震怒

伊朗掛斷王毅電話后發全球照會,薩勒曼震怒

空間展示知識
2026-03-26 07:06:58
王晶大侃萬梓良晚年凄涼!他不懂江湖規矩,演戲夸張對手很難接

王晶大侃萬梓良晚年凄涼!他不懂江湖規矩,演戲夸張對手很難接

小徐講八卦
2026-02-11 11:40:12
林彪的兒子要結婚,葉群在全國選美,毛主席得知說了5個字

林彪的兒子要結婚,葉群在全國選美,毛主席得知說了5個字

揚平說史
2026-03-25 21:04:04
烏克蘭通過法律程序,將“俄烏戰爭”,命名為“烏克蘭獨立戰爭”

烏克蘭通過法律程序,將“俄烏戰爭”,命名為“烏克蘭獨立戰爭”

我心縱橫天地間
2026-01-22 18:41:25
劉青山和張子善一起貪污171.6億舊人民幣,放到現在能值多少錢

劉青山和張子善一起貪污171.6億舊人民幣,放到現在能值多少錢

鶴羽說個事
2026-03-25 22:25:17
1986年韓先楚拒絕葬在八寶山,他對陳云說:那里有我不愿見到的人

1986年韓先楚拒絕葬在八寶山,他對陳云說:那里有我不愿見到的人

百年歷史老號
2026-03-25 18:27:41
拒絕修改!蕭華正式回應65場評獎規則:我認為它是有效的

拒絕修改!蕭華正式回應65場評獎規則:我認為它是有效的

羅說NBA
2026-03-26 07:22:21
命中率47%,周琦的罰球為何斷崖式下滑?懶才是最大的“病因”

命中率47%,周琦的罰球為何斷崖式下滑?懶才是最大的“病因”

中國足球的那些事兒
2026-03-25 16:22:15
2026-03-26 11:27:00
機器之心Pro incentive-icons
機器之心Pro
專業的人工智能媒體
12598文章數 142593關注度
往期回顧 全部

科技要聞

硅谷因AI大裁員?一線工程師戳破真相

頭條要聞

上海36歲女子嫁23歲小伙 拿千萬元房產99%份額"閃離"

頭條要聞

上海36歲女子嫁23歲小伙 拿千萬元房產99%份額"閃離"

體育要聞

35歲替補門將,憑什么入選英格蘭隊?

娛樂要聞

張雪峰遺產分割復雜!是否立遺囑成關鍵

財經要聞

黃仁勛:芯片公司的時代已經結束了

汽車要聞

一汽奧迪A6L e-tron開啟預售 CLTC最大續航815km

態度原創

親子
教育
數碼
旅游
家居

親子要聞

科普|兒童能不能使用阿片類藥物——專業解讀家長最怕的“止痛藥”

教育要聞

ISAR選修課丨重磅古典占星預測課程:整合6大預測技法,從入門到實戰

數碼要聞

2026年開局不利 中國筆記本電腦線上市場量額降四成

旅游要聞

上觀時評 丨上海迪士尼70元的蒸包子套餐,并非必選項

家居要聞

傍海而居 靜觀蝴蝶海

無障礙瀏覽 進入關懷版