![]()
來源:混沌巡洋艦
在人工智能(AI)越來越“聰明”的今天,我們如何讓它變得更“智慧”?這不僅僅是科幻遐想,而是關系到AI能否安全、可靠、合作地融入我們復雜現實世界的迫切工程與倫理議題。
![]()
2026年發表在《認知科學趨勢》期刊上題為《想象與構建智慧的機器:AI元認知的核心地位》的觀點類綜述,給出的回答是基于元認知,讓AI更具智慧。
1 智慧有哪些體現
文章開篇就拋出了一個尖銳的對比:AI的能力在飛速增長,但其“智慧”并未同步跟上。這種智慧缺失的表現,我們多少都有體會:一個在圍棋上擊敗人類冠軍的AI,可能無法理解一段童話的寓意;一個能寫出優美文章的語言模型,可能會 confidently 地編造看似合理實則荒謬的“事實”(即幻覺問題);一個在模擬環境中訓練到完美的自動駕駛算法,面對現實世界中前所未見的突發路況時可能瞬間失靈。這些不僅僅是技術瑕疵,在作者們看來,其根源在于當前AI普遍缺乏一種關鍵的認知能力——特別是“視角性元認知”。
那么,什么是智慧?文章沒有停留在抽象的哲學討論,而是給出了一個非常實用且可操作的定義:智慧是一套用于解決“棘手問題”的能力集合。這里的“棘手問題”是核心關鍵詞,它特指那些無法用標準分析、優化技術輕易搞定的事情。比如,目標本身模糊或相互沖突(是該追求短期利潤還是長期品牌聲譽?),未來結果概率完全無法計算(“黑天鵝”事件),情況瞬息萬變難以預測,或者從理論上可以計算但所需資源不現實(組合爆炸)。這些正是真實世界,尤其是人類社會交往與決策中的常態。
人類如何應對這些棘手問題?作者們提出了一個精妙的雙層框架。第一層是“對象級策略”,即直接用于解決問題的具體方法,比如各種啟發式(經驗法則)、敘事性思考(構建因果故事模型)以及正規的決策技術(如風險算法)。這些策略提供了可能的行動選項。但難點在于,策略太多了,而且常常彼此矛盾(“三思而后行”還是“機不可失”?)。這時就需要第二層:“元認知策略”,特別是“視角性元認知”。這不再是關于“想什么”,而是關于“如何想”——如何管理、選擇和評估那些對象級策略。它包含一系列我們推崇的智者品質:理智上的謙遜(知道自己知識的邊界)、尋求多元視角(主動理解他人的立場)、背景適應性(辨別當前情境與以往經驗的異同)、觀點平衡(協調不同甚至沖突的利益)。
![]()
文中舉了一個生動的例子:達芙妮是一位世界級的心臟病專家,但她會向一位資歷較淺的同事請教,因為她意識到這位同事更了解某位患者的特殊病史。這個過程完美展示了視角性元認知的運作:她先有理智上的謙遜(承認自己知識的不足),繼而進行視角尋求(咨詢同事),接著運用背景適應性(評估同事的建議在當前患者情境下的適用性),最終做出認知上的遵從(采納建議)。智慧,在此體現為對認知過程本身的高階監控與調節。
而當前AI,尤其是大型語言模型為代表的生成式AI,最大的短板恰恰在這里。它們或許能生成邏輯鏈(思維鏈提示),能進行某種程度的自我評估,但在更根本的視角性元認知上表現出“近視”。它們難以真正承認無知(傾向于“幻覺”而非說“我不知道”),難以評估自己證據的可靠性,更不擅長在多種沖突的價值觀、利益和視角間進行審慎的權衡與協調。這種“元認知肌無力”是許多深層問題的病根。
2 AI有智慧意味著什么
文章接著雄辯地論證了,培養AI的智慧(尤其是視角性元認知)將如何系統性地緩解AI的四大經典難題:
首先是魯棒性。一個智慧的AI會更可靠、更少偏見、更靈活。因為它能監控自己的策略選擇,在相似情境下避免給出前后矛盾的輸出;它能反思訓練數據中的偏見來源并嘗試修正;在面對全新情況時,它能調節自己的信心,管理不確定性,而不是機械地套用可能不適用的舊模式。
其次是可解釋性。為什么AI會做出某個決定?一個具備元認知能力的AI,或許能更好地“解釋”自己。一種可能是,它能報告其有意識的元認知過程(“我選擇這個策略是因為在X背景下,A啟發式比B算法更合適”)。即便如某些認知理論認為,所有事后解釋都是一種“敘事重建”,智慧的AI也能生成更有用、更連貫的敘事,使其決策過程對人類而言更可理解、可審計。
第三是協作性。AI將越來越多地與其它AI或人類在復雜網絡中協作。有效協作需要理解他人(心智理論)、有效溝通(評估信息源可信度)以及做出可信承諾(讓人相信你會守約)。人類依靠元認知來管理這些對象級的社會互動策略。例如,在溝通時,我們需要元認知來判斷何時應該質疑對方的論證鏈條。同樣,一個協作型AI需要元認知來評估人類伙伴的能力和意圖,避免因過高估計或缺乏共同基礎(如共享的情感理解)而導致協作失敗。
第四是安全性。這涵蓋了從日常故障到生存風險的廣闊光譜。元認知能幫助AI校準信心,預判失敗,監控自身表現,從而避免許多低級錯誤。但更深層的是所謂的“對齊”難題:如何確保強大AI的目標與人類復雜、多元、演化的價值觀始終一致?作者提出了一個極具啟發性的觀點:與其試圖將AI“對齊”到某個固定的、可能無法達成共識的“正確”價值觀集合,不如轉向培養AI的“智慧推理”能力——即讓AI內化那些能引導它妥善處理棘手問題(包括價值沖突)的對象級與元認知策略本身。例如,一個對象級策略可以是“在多個可能沖突的人類規范都顯示有害時傾向于不行動”,而這又需要元認知來識別這些沖突視角并避免過度自信。同時,我們不應將AI視為單純的外部工具,而應將其視為需要嵌入更廣闊社會制度(如市場、治理機制)中的新型行動者。通過制度設計引導,智慧的AI可以促進社會價值的良性演進,而非將其固化。
![]()
3 如何構建這樣的智慧AI?
文章提出了一個基于人類智慧起源的類比猜想:人類的元認知能力更可能是一種進化塑造的“先天”認知架構,而對象級策略(如各種文化啟發式)則更多通過后天經驗與社會學習獲得。這對AI開發的啟示是,培養對象級智慧與元認知智慧可能需要不同的路徑。
對于對象級策略,或許可以通過讓AI從大量經驗與社會互動中學習來獲得,類似于人類積累民間智慧的過程。但僅靠優化輸出結果的標準訓練范式,可能難以“教會”AI真正的元認知。因為損失函數只關心最終答案的對錯,而不關心得出答案的“思考過程”是否明智。一個AI可能模仿了智者的決策,但其內在可能完全沒有理解為何如此選擇。
因此,作者們探討了幾種進階思路。樂觀來看,可以改造訓練過程,例如采用兩階段訓練:先訓練模型正確選擇智慧策略(如識別何時該表現理智謙遜),再訓練它執行該策略。或者,在基準測試中同時要求模型輸出其策略和最終答案,并只對“正確策略+正確結果”的組合給予獎勵。但更激進的觀點認為,當前主流的“下一個詞預測”架構本身可能存在根本限制——這種單向、逐詞生成的機制缺乏真正的“向前規劃”和對自身思維的“反省”回路。因此,可能需要對模型架構進行變革,而不僅僅是調整訓練數據或提示方法。
從提示工程角度看,諸如“思維樹”、“元思維鏈”等方法試圖讓模型在推理時進行更多樣的搜索與回溯。“最小到最多提示”則引導模型將復雜問題分解。在模型架構層面,研究者嘗試引入獨立的“元驗證器”模塊來評估輸出,或構建“內部獨白”與“對外言說”分離的對話代理(如MIRROR模型)。更宏大的構想包括:設計具有明確“元認知檢查點”和錯誤檢測循環的架構;為訓練數據添加“認知來源標簽”并動態更新其可信度;建立分層反射式推理架構(受ACT-R、Soar等認知架構啟發);實現“元認知敘事”以增強透明度;利用多智能體間的分布式社會性元認知(如對抗性辯論);甚至為AI安排“離線回放與鞏固”時段,模擬人類的反思與整合過程。
當我們真的開始構建時,又該如何評估一臺機器是否擁有智慧?這本身就是一個元問題。文章指出,智慧高度依賴于具體情境,因此評估需要足夠豐富的場景細節。更重要的是,智慧關乎“推理過程”而不僅僅是“結果”,所以評估必須考量其決策背后的策略選擇。現有的元認知評估多集中于“信心校準”(即模型對自己判斷的確信度是否準確),但這離全面的視角性元認知還有距離。可能的路徑包括:改造用于測量人類智慧推理的心理測驗(如呈現社會困境故事,評估其反思內容),并將其轉化為對AI的測試;或者由領域專家主觀評估AI在復雜情境下的輸出質量。最終,日益自主的AI的智慧,必將由真實世界中的用戶和利益相關者來評判,這意味著任何部署都必須謹慎且漸進。
4 將智慧變為工程概念
在文章結尾,作者們以開放的態度探討了AI智慧可能迥異于人類智慧的未來圖景。人類的元認知很大程度上受限于稀缺的認知資源,許多認知偏差正是優化這一約束的副產品。而AI擁有近乎無限的計算力,它可能會“理性地”投入遠超人類的認知努力,其智慧形態可能與我們不同。另一方面,人類將大量認知外包給了社會與環境(如分工、制度),而分布式認知尚未在AI中成為主流。當然,另一種可能是,AI智慧將與人類智慧大幅趨同,因為計算同樣有成本,啟發式因其魯棒性在信息不全時同樣有效,且AI終將更深地融入人類制度,共享部分社會認知基礎。
面對這些不確定性,作者們提出了有力的反駁:與停步不前相比,特別是與當前這種只追逐能力飆升、忽視元認知培養的現狀相比,努力讓機器變得更有智慧——更理智謙遜、更適應情境、更善于平衡觀點——顯然是更可取的。至少在中期,AI仍將是人類協作的工具,其智慧應用于增強而非取代人類智慧。最終,魯棒、可解釋、協作且安全的AI其優勢將相互促進,形成良性循環。我們或許無法精確預知智慧AI的確切形態,但它無疑比愚蠢更值得追求。
通觀全文,這篇論文的杰出之處在于,它將一個看似玄妙的“智慧”概念,拆解成了可分析、可操作、甚至可工程化的認知組件。它沒有空談倫理,而是將倫理挑戰(如對齊問題)轉化為具體的認知架構與策略選擇問題。它呼吁AI研究從一味追求“更聰明”(解決明確問題的能力),轉向有意識地培育“更智慧”(在模糊、沖突、不確定中做出穩健、合作、可解釋判斷的能力)。這不僅僅是技術的下一個前沿,更是確保這項強大技術最終造福而非危害人類的關鍵心智基石。在AI能力日益滲透現實每個角落的2026年,這樣的思考不再是學術奢侈品,而是生存必需品。
https://www.sciencedirect.com/science/article/abs/pii/S1364661326000021
閱讀最新前沿科技趨勢報告,請訪問21世紀關鍵技術研究院的“未來知識庫”
![]()
未來知識庫是 “21世紀關鍵技術研究院”建 立的在線知識庫平臺,收藏的資料范圍包括人工智能、腦科學、互聯網、超級智能,數智大腦、能源、軍事、經濟、人類風險等等領域的前沿進展與未來趨勢。目前擁有超過8000篇重要資料。每周更新不少于100篇世界范圍最新研究資料。 歡迎掃描二維碼或訪問https://wx.zsxq.com/group/454854145828進入。
![]()
截止到2月28日 ”未來知識庫”精選的百部前沿科技趨勢報告
(加入未來知識庫,全部資料免費閱讀和下載)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.