長期以來,我們對于 AI“奇點”似乎總是這樣的:一臺超級機器,不斷自我迭代,像黑洞一樣吞噬一切認知能力,最終升格為某種硅基神靈。但一篇剛剛發(fā)表在《科學》(Science)上的評論文章對這種想法進行了根本性的反駁,研究團隊認為,智能爆炸不會以“獨裁者”的面目出現(xiàn)。它更像一座不斷擴張的城市,而非一個不斷膨脹的大腦。
這篇文章題為《Agentic AI and the next intelligence explosion》,由芝加哥大學社會學與數(shù)據(jù)科學教授 James Evans、加州大學圣迭戈分校技術(shù)哲學教授 Benjamin Bratton,以及谷歌副總裁兼 Fellow Blaise Agüera y Arcas 聯(lián)合撰寫。
![]()
(來源:Wikipedia)
文章的第一個關(guān)鍵論據(jù)來自一項此前由同一團隊發(fā)表的實證研究。他們發(fā)現(xiàn),當前最強的推理模型,如 DeepSeek-R1 和阿里的 QwQ-32B,并不是靠“想得更久”來提升表現(xiàn)的。真正起作用的,是這些模型在推理鏈(chain of thought)內(nèi)部自發(fā)生成了一種類似“多智能體辯論”的結(jié)構(gòu),研究者將其命名為“思想社會”(society of thought)。
簡單說,模型在解決一道復雜化學題時,不會沿著一條線性邏輯走到底,而是會“分裂”出具有不同認知風格的內(nèi)部角色:一個憑直覺提出假設的“聯(lián)想專家”,一個立刻質(zhì)疑它的“批判驗證者”,以及負責調(diào)和沖突的“整合者”。這些角色的人格特征甚至可以用大五人格量表來度量。
![]()
(來源:arXiv)
且讓人意外的是,這種行為是涌現(xiàn)的。沒有任何訓練信號明確要求模型進行多角色辯論。當強化學習只以“答案正確”作為獎勵函數(shù)時,模型自發(fā)地增加了內(nèi)部對話行為。研究團隊還做了一項因果驗證實驗:他們使用稀疏自編碼器(Sparse Autoencoder)在 DeepSeek-R1 的激活空間中找到了一個與“驚訝/頓悟”語義高度相關(guān)的特征向量,通過人為增強該特征,模型在算術(shù)推理任務上的準確率從 27.1% 幾乎翻倍到 54.8%。
抑制這個特征,對話行為減少,表現(xiàn)也隨之下降。換言之,推理模型的能力優(yōu)勢,可以因果地歸因于它們內(nèi)部的“社會過程”。
三位作者由此跳出了 AI 技術(shù)的范疇,把視野拉到了整個智能演化史。他們的核心主張是:歷史上每一次“智能爆炸”,都不是個體認知硬件的升級,而是一種新的社會化認知單元的誕生。靈長類的智能與社群規(guī)模正相關(guān),而非環(huán)境難度。人類語言開啟了發(fā)展心理學家 Michael Tomasello 所說的“文化棘輪”(cultural ratchet),知識跨代積累而無需每個個體從頭重建;文字、法律和官僚體制則把社會智能外化為基礎設施。一個管理谷物賬目的蘇美爾書吏并不理解他所在系統(tǒng)的宏觀經(jīng)濟功能,但那個系統(tǒng)在功能上比他更聰明。
按照這個框架,大語言模型是同一條線索的最新延伸。它們訓練于人類社會認知的累積輸出,每一個參數(shù)都是交流互動的壓縮殘留。遷移到硅基的并非抽象推理能力,而是外化形式的社會智能。
既然智能天然是社會性的,那么通往更強 AI 的路徑就不在于造一個全知全能的“神諭”,而在于組合出更豐富的混合系統(tǒng)。文章在這里借用了國際象棋界的老概念:半人馬(centaur)。1998 年卡斯帕羅夫輸給“深藍”之后,他提出了“人機協(xié)作賽”的想法,人類棋手加上 AI 輔助,組合成“半人馬選手”,能擊敗單獨運行的最強 AI。
Evans 等人把這個概念推廣到了更一般的場景:一個人指揮多個 AI 智能體,一個 AI 服務于多個人類,或者更復雜的多人多機協(xié)作。我們每個人可能每天進出多種這樣的組合,多數(shù)時候甚至沒有意識到。
![]()
圖丨深藍 AI(來源:IBM)
由此引出的問題就不再是“AI 會不會超過人類”這樣的科幻命題了,而是更現(xiàn)實的治理難題。文章銳評道,當前 AI 對齊的主流范式如基于人類反饋的強化學習(RLHF),本質(zhì)上是一種“親子模型”的糾錯方式,是雙人對話式的,無法擴展到數(shù)十億智能體的規(guī)模。
取而代之的應該是“制度性對齊”(institutional alignment):就像人類社會不依賴個人美德而依賴法庭、市場、官僚制度等角色化的制度模板一樣,可擴展的 AI 生態(tài)也需要數(shù)字化的等價物。法庭之所以運轉(zhuǎn),不是因為某個具體的人是法官,而是因為“法官”、“律師”、“陪審團”是定義清晰的角色槽位,誰坐上去并不影響系統(tǒng)功能。
文章還討論了開年來爆火的 OpenClaw 及其衍生智能體社交網(wǎng)絡 Moltbook,認為它們代表了智能體的自我復制與分化的萌芽。當一個 AI 智能體面對復雜任務時,它可以復制自己、分配子任務、再合并結(jié)果。如果其中一個“分身”遇到了超出能力的子問題,它可以進一步生成自己的內(nèi)部“思想社會”,形成一種遞歸式的集體審議,在復雜性需要時展開,在問題解決后收縮。沖突在這里不是 bug,而是資源。
如果再把這套邏輯推到政府治理層面,當 AI 系統(tǒng)被部署于招聘、量刑、福利分配等高風險決策時,“誰來審計審計者”這個問題就無可回避了。文章認為其答案可能是憲政性的:政府需要具備不同價值取向的 AI 系統(tǒng)(透明度、公平性、正當程序)來相互制衡。
一個勞工部門的 AI 可以審計企業(yè)招聘算法的歧視性影響,一個司法分支的 AI 可以評估行政分支 AI 的風險評估是否符合憲法標準。而如果不這樣做呢?文章半帶嘲諷地給出了替代方案:讓金融監(jiān)管機構(gòu)繼續(xù)派一群拿著 Excel 表格的商學院畢業(yè)生,去對付已經(jīng)用 AI 武裝到牙齒的華爾街算法交易。
三位作者給出了一個非常克制的收尾:我們描述的這個愿景既不是烏托邦,也不是反烏托邦,而是演化性的。任何即將發(fā)生的智能爆炸,都將由 80 億人與數(shù)千億乃至萬億 AI 智能體的交互所催生。它的腳手架不是一個不斷攀升的單一心智,而是一個不斷復雜化的組合式社會。智能像一座城市那樣生長,而非像一個超級大腦那樣膨脹。
用文章結(jié)尾的話說:沒有任何心智是一座孤島。
參考資料:
1.https://www.science.org/doi/10.1126/science.aeg1895
2.https://arxiv.org/pdf/2601.10825
運營/排版:何晨龍
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.