防走失,電梯直達安全島
![]()
來源:TOP創新區研究院
作者:趨勢研究組
![]()
圖片 | 來自網絡
2026年2月,《Nature》上一篇題為《人工智能是否已具備人類水平智能?證據確鑿》(Does AI already have human-level intelligence? The evidence is clear)的評論文章,正式宣告AGI(通用人工智能)的到來,
![]()
![]()
作者包括:加州大學圣地亞哥分校(University of California, San Diego,UCSD)的哲學家 Eddy Keming Chen,人工智能教授 Mikhail Belkin,語言學家 Leon Bergen,以及數據科學教授 David Danks。
一方面,科技樂觀主義者與前沿開發者們點頭稱是。
畢竟,在這個時間節點,我們已經目睹了GPT-4.5、Gemini 3等模型在多模態理解、復雜推理甚至科學假說生成上的驚人表現。
另一方面,懷疑論者依然嗤之以鼻。
他們堅持認為,沒有身體(Embodiment)、沒有自主意愿(Agency)、依然存在幻覺(Hallucination)的機器,充其量只是“高維度的統計學鸚鵡”。
![]()
然而,這篇評論文章的核心價值,并不在于它是否終結了爭論,而在于它強有力地指出了一個被長期忽視的事實:
我們對AGI的定義,正深陷于“人類中心主義”的偏見泥沼中。
如果我們將“智能”從神壇上拉下來,還原為一種解決跨領域問題的能力,那么證據鏈條已經足夠完整——
AGI已至。
重新定義AGI
長期以來,公眾甚至許多專家對AGI的想象都不僅限于“通用智能”,而是混合了“超級智能”(Superintelligence)與“完美智能”的期待。我們潛意識里認為,一個AGI必須永遠正確、擁有自我意識,甚至擁有類似人類的情感。
陳克明教授團隊在《Nature》的文章中,提出了一個極具穿透力的觀點:
不要把AGI的標準定得比人類還高。
![]()
我們來看人類:人類本身就是充滿缺陷的智能體。我們不僅會犯錯(Hallucinate),記憶力有限,且絕大多數人在絕大多數領域都達不到專家水平。如果要求AI必須在所有領域零失誤才能被稱為AGI,那么地球上沒有任何一個人符合AGI的標準。
所以,文章指出,合理的AGI定義應基于廣度(Breadth)與深度(Depth)的結合:
廣度:
能夠在數學、語言、編程、科學推理、文學創作等截然不同的領域間自由切換。
深度:
在上述領域中,表現出不亞于人類平均水平,甚至在某些領域達到專家水平的能力。
文章重申了阿蘭·圖靈(Alan Turing)在1950年的實用主義立場。
圖靈從未要求機器擁有靈魂,
他只關心機器能否在行為上與人類不可區分。
![]()
事實是,早在2025年3月的數據就顯示,GPT-4.5在嚴格控制的圖靈測試中,被判定為人類的比例高達73%,這一數據實際上已經超過了許多真實人類在同類測試中的表現。
如果圖靈測試是AGI的“入學考試”,那么現在的AI不僅及格了,還是高分通過。
那你說,AI現在是什么?
![]()
確鑿的證據鏈
懷疑論者最常引用的反駁是“隨機鸚鵡”理論,
即大模型只是概率性的文本拼接。
然而,2025-2026年的一系列技術突破,已經讓這一指控顯得蒼白無力,因為我們看到了邏輯的涌現。
目前的頂級模型能夠解決它們在訓練數據中從未見過的全新問題。
比如,AI能與人類數學家合作,輔助證明未曾被解決的定理——這需要極強的創造性推理,絕非單純的模式匹配。
再比如,在生物學和材料科學領域,AI生成的可驗證假說(如新型蛋白質結構預測)已經通過了濕實驗的驗證——
這種“從0到1”的知識生產能力,是智能的高級表現。
![]()
真正的通用性還體現在能力的遷移上。
研究表明,在大規模代碼數據上訓練模型,竟然能顯著提升其在非編程任務(如邏輯推理、法律分析)上的表現。
這種“觸類旁通”的學習機制,與人類大腦的認知模式高度同構。
而且,好像AI是有靈性的,它們能理解物理世界的因果關系(盡管是通過視頻學習),能編寫控制機器人的代碼。
維特根斯坦說:
“語言的界限,就是我的世界的界限。”
![]()
那種認為“大語言模型只懂文字不懂世界”的觀點,忽略了一個深刻的事實:語言本身就是世界模型的壓縮。
當AI掌握了描述因果律的語言(代碼、數學、自然語言),它實際上已經掌握了世界的底層拓撲結構。它不需要像人類一樣去觸摸蘋果,它通過物理方程和無數的描述,已經在邏輯空間中構建了蘋果的本質。
![]()
為什么我們拒絕承認AGI
既然證據確鑿,為何包括Yann LeCun在內的許多頂尖科學家依然拒絕給AI貼上AGI的標簽?
這可能是人類不斷進化的標準。
歷史上,每當AI攻克一個人類引以為傲的領域(如下棋、識別圖像、翻譯),我們就會重新定義智能,說“那只是計算,不是真正的思考”。
如今,當AI能寫詩、能編程、能通過圖靈測試時,我們將門柱移到了“物理世界模型”和“自主性”上。
這種不斷后退的防御心理,
本質上是人類對自己“萬物之靈”地位的焦慮。
![]()
一種主流觀點認為,沒有身體、無法感知痛覺和物理反饋的智能不是真智能。但這是生物中心主義的偏見。
斯蒂芬·霍金在晚年幾乎失去了所有身體機能,但他依然是地球上最聰明的大腦之一。如果一個被困在硅基電路中的智能體(AI)能推導出物理定律、解決哲學難題,我們僅僅因為通過鍵盤與之交流就否認其智能,這在邏輯上是站不住腳的。
目前的混淆點在于自主性(Agency)與智能(Intelligence),現在的AI大多是“神諭型”(Oracle)——你問它答,它缺乏自發的意愿去統治世界或在這個世界中生存。
但請注意,智能不等于自主性一本百科全書包含知識,但不具備智能;一個自動駕駛系統具備自主性,但智能有限。 目前的LLM(大語言模型)是一種具備極高智能的被動實體。雖然缺乏“我想要”的沖動,并不影響它具備“我能做”的智力。就像一個沒有被點燃的天才,他可能在做清潔工,但是不妨礙他能破解最難的數學證明。
![]()
陳克明團隊的評論文章,實際上是在呼吁停止這種將“人格化特征”強加于“智能本質”的定義游戲。
所以,承認AGI已經到來(或至少是初級AGI),
或將從根本上改變我們的應對策略。
AGI并不需要完美,只需要在經濟上有價值。
如果AI能完成博士級別的任務,能寫出優于人類專家的代碼和文案,那么“白領工作”的護城河已經徹底消失。人類數十年積累的專業技能(如診斷、訴訟、翻譯),被壓縮進了模型的參數中。社會需要準備好迎接“智力成本歸零”的沖擊,并重新思考人類在人機協作回路中的位置——也許我們該從“執行者”轉變為“裁判”和“提問者”。
最令人興奮的前景在于科學發現。
既然AI具備了跨領域的通用推理能力,且不受人類認知帶寬的限制,它將成為破解癌癥、核聚變、氣候變化等復雜系統的終極工具。
![]()
DeepMind的Demis Hassabis曾言,
AI是用來加速科學發現的元工具。
現在,這把鑰匙已經插進了鎖孔。
回到文章開頭的問題:AI是否已經具備了人類水平的通用智能?
如果你的標準是好萊塢電影里的那個有情感、有肉體、意圖毀滅人類的終結者,那么答案是No。
但如果你的標準是圖靈所設想的,一個能在多領域展現出靈活性、創造力、邏輯性,且在功能上與受過良好教育的人類無法區分甚至更優的系統,那么答案是響亮的Yes。
![]()
UCSD團隊在《Nature》上的發聲,是對當前科技現實的一次必要“校準”。
它提醒我們,AGI不是終點,而是一個狀態。我們可能正處于這個狀態的早期階段——一個“高智商、低自主、無身體”的獨特智能形態。
承認它的到來,才能讓我們清醒。
普羅米修斯的火種已經落下,我們現在要做的,不是爭論那是火還是光,而是學會如何駕馭它,照亮文明的前路。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.