![]()
人類正處于一場范式革命之中。
范式轉(zhuǎn)變往往伴隨著陣痛。新觀念與舊世界觀相容時,人們欣然接受;而二者相悖時,人們便心生抵觸。地心說就是一個經(jīng)典案例。該學說由托勒密(Ptolemy)的“本輪說”進一步完善,認為太陽、月亮、行星和恒星圍繞著靜止不動的地球運轉(zhuǎn)。這種認知既符合直覺又順應宗教傳統(tǒng),曾被視為重大科學成就,主導了人類近2000年的宇宙觀。因此,哥白尼的“日心說”雖然是科學進步的標志,更是備受爭議的“異端邪說”。正如本杰明·布拉頓(Benjamin Bratton)所言,“日心說”之于某些人甚至造成了存在主義層面的精神創(chuàng)傷。如今,人工智能(AI)已再度掀起認知風暴。
本文將闡述五大范式轉(zhuǎn)變。它們互相關(guān)聯(lián),共同影響著AI的發(fā)展:
自然計算——早在人類制造出第一臺“人工計算機”之前,計算就已然存在于自然界。將計算視為一種自然現(xiàn)象,不僅能推動計算機科學和AI迭代,還將促使物理學和生物學革新。
神經(jīng)計算——人類大腦正是自然計算的絕佳典范。通過重構(gòu)驅(qū)動AI的計算機系統(tǒng),使其更接近大腦的工作機制,將大幅提升AI的能效水平,同時解鎖其潛能。
預測智能——大語言模型(LLM)的成功向我們揭示了智能的本質(zhì)特征:它建立在不斷演進的知識、觀察和歷史反饋之上,是對未來(包括自身未來行為)的統(tǒng)計建模。這意味著,當前AI模型的設計、訓練與運行之間的界限只是暫時性的,更先進的AI將像人類一樣,以持續(xù)、互動的形式不斷進化、成長和學習。
通用智能——智能的實現(xiàn)未必需要基于生物的計算。AI模型仍將穩(wěn)步升級,但它們現(xiàn)階段的能力已經(jīng)相當全面,能夠處理日益多樣化的認知任務。其技能水平可以比肩人類個體,在某些情況下甚至更勝一籌。從這種意義上說,“通用人工智能”(AGI)或許已然到來,只是我們在反復更改衡量標準。
集體智能——人類大腦、AI智能體和社會系統(tǒng)都可以通過擴展規(guī)模而變得更強大,但僅有規(guī)模是不夠的。智能本質(zhì)上是社會性的,由多個智能體的協(xié)作分工所驅(qū)動。這一認知促使我們重新思考人類(或“超越人類”)智能的本質(zhì),更指明了AI發(fā)展的新路徑:通過社會化智能集群與多智能體協(xié)同架構(gòu),可以降低計算成本、增加AI多樣性,并為AI安全議題提供新視角。
或許在AI時代,最大的“哥白尼式”沖擊則在于,我們可能將不得不接受非人類通用智能會如此般司空見慣。但要理解人類的“智能地心說”,首先必須重新審視計算的本質(zhì)。因為計算不僅是AI的基礎,更是一切智能形式的根基。接下來,本文將就此展開論證。
![]()
![]()
?Blaise Agüera y Arcas(左)是Google副總裁兼研究員,技術(shù)與社會的首席技術(shù)官,也是智能范式團隊(Paradigms of Intelligence)的創(chuàng)始人。他的新書《何為智能》(What Is Intelligence?)于9月將由Antikythera和Mit Press發(fā)布。
James Manyika(右)是谷歌-字母表(Google-Alphabet)的高級副總裁,同時擔任谷歌研究、實驗室、技術(shù)與社會部門的總裁。他曾擔任美國國家人工智能咨詢委員會的副主席,以及聯(lián)合國秘書長人工智能咨詢機構(gòu)的聯(lián)合主席。
![]()
自然計算
“計算機科學”算得上是一門科學嗎?通常來說,它更多地被視為一門工程學科,誕生于二戰(zhàn)時期的電子數(shù)字積分計算機(ENIAC)。ENIAC是人類歷史上第一臺完全可編程的通用電子計算機,也是你手中那部智能手機的遠祖。
不過,計算機理論的出現(xiàn)則更早于計算機工程。1936年,英國數(shù)學家艾倫·圖靈(Alan Turing)發(fā)表了一篇具有開創(chuàng)性的論文,介紹了現(xiàn)在被我們稱之為“圖靈機”的虛擬設備,它由一個可以在磁帶上左右移動的讀寫頭組成,可以根據(jù)一套規(guī)則讀取、擦除和寫入磁帶上的符號。只要賦予合適的規(guī)則,圖靈機就能按照磁帶上編碼的指令,即我們現(xiàn)在所說的計算機程序或代碼進行操作,從而使得這種“通用圖靈機”(UTM)能夠執(zhí)行任意計算。反過來講,任何能由UTM完成的操作都屬于計算。1945年,ENIAC正式完工,成為世界上第一臺真正的UTM。
然而……事實或許并非如此。早在2014年,一小群在物理學和計算機科學領(lǐng)域都有深厚背景的非傳統(tǒng)研究人員,比如約克大學的蘇珊·斯蒂芬尼(Susan Stepney),就在《英國皇家學會學報A輯》(Proc. R. Soc. A)上提出,自然界中實際上充斥著計算系統(tǒng),其中并沒有明確的人類計算機用戶。此外,20世紀物理學巨擘約翰·惠勒(John Wheeler)還曾經(jīng)大力倡導過一種名為“萬物源于比特”(it from bit)的激進假說,該假說認為宇宙的基本結(jié)構(gòu)是計算性的。在惠勒看來,我們視為物理的基本現(xiàn)象——夸克、電子、光子——都是底層計算的產(chǎn)物,就像互聯(lián)網(wǎng)數(shù)據(jù)包或圖像像素一樣。
或許在AI時代,最大的“哥白尼式”沖擊則在于,我們可能將不得不接受非人類通用智能會如此般司空見慣。
在量子力學的某些解釋中,這種計算發(fā)生在多重宇宙之中,展開而言,即大量相互糾纏的平行宇宙中同時進行著大量的計算。無論對基礎物理學作何解釋,量子計算這一實實在在的技術(shù)都利用了這種并行性,使某些計算能夠在幾分鐘內(nèi)完成,而用當今最強大的超級計算機則需要數(shù)倍于宇宙壽命的運算時間。無論以何種標準衡量,這都是計算領(lǐng)域的一場范式變革。
“計算是物質(zhì)的現(xiàn)實基礎”這一說法難以被證實抑或證偽,但早在惠勒提出“萬物源于比特”的假說之前,就出現(xiàn)過“自然界中存在計算”的明確案例。約翰·馮·諾依曼(John von Neumann)是一位杰出的數(shù)學物理學家,也是計算機科學的另一位奠基人,早在1951年就發(fā)現(xiàn)了計算與生物學之間的深刻聯(lián)系。
馮·諾依曼意識到,對于一個復雜的生物體來說,要實現(xiàn)自我復制,它必須包含構(gòu)建自身的指令,以及讀取和執(zhí)行這些指令“磁帶”的機器。“磁帶”本身也必須能夠復制,并包含構(gòu)建讀取它的機器的指令。巧合的是,這種“通用構(gòu)造器”的技術(shù)要求與通用圖靈機(UTM)的技術(shù)要求完全一致。令人驚訝的是,馮·諾依曼先于1953年在DNA的圖靈式磁帶樣結(jié)構(gòu)和功能被發(fā)現(xiàn)之前就已經(jīng)產(chǎn)生了這一洞見。
于是乎,馮·諾依曼證明了,生命究其本質(zhì)是“計算性”的。這聽起來可能讓人感到匪夷所思,因為我們理所當然會認為計算機并沒有生命,而生物也絕不能算作計算機。但這是事實:DNA就是生命的代碼——盡管這種代碼難以逆向工程,又并非按線性順序執(zhí)行。“計算”對于生物而言是必要的,這不僅是為了繁殖,還是為了發(fā)育、生長和修復。而基于此的對基礎生物系統(tǒng)進行編輯或編程,也正變得越來越有可能。
![]()
?左圖:艾倫·圖靈。右圖:圖靈模型的計算機模擬生成的模式。每個模式都基于相同的基本方程,只是參數(shù)略有調(diào)整。圖靈在他生命的盡頭寫下了他的第一篇也是最后一篇關(guān)于生物學和化學的論文,關(guān)于某種化學反應如何產(chǎn)生自然界中看到的許多模式。這篇名為《形態(tài)發(fā)生的化學基礎》(The Chemical Basis of Morphogenesis)的論文完全是理論性的。但在隨后的幾十年里,也就是圖靈于1954年悲慘地自殺很久之后,科學家們發(fā)現(xiàn)他的推測變成了現(xiàn)實。所謂的圖靈模式首先在培養(yǎng)皿中的化學物質(zhì)中發(fā)現(xiàn),然后在動物的條紋、螺旋和渦旋中大量出現(xiàn)。有些人認為圖靈模式實際上可以擴展到生態(tài)系統(tǒng),甚至星系。
圖源:Shigeru Kondo 和 Takashi Miura for Science
圖靈同樣在理論生物學領(lǐng)域做出了開創(chuàng)性的貢獻,他描述了組織的生長和分化具體如何通過那些能夠感知和釋放他稱之為“形態(tài)發(fā)生素”(morphogen)的化學信號的細胞來實現(xiàn)——這是一種強大的模擬計算形式。和馮·諾依曼一樣,盡管圖靈從未真正踏足過生物學實驗室,卻同樣說中了要害。
圖靈和馮·諾依曼共同揭示了生物學的計算基礎,而這則為人工生命或“ALife”奠定了根基,這一領(lǐng)域至今仍鮮為人知且處于范式前階段——就像AI在不久前的情況一樣。
然而,完全有理由相信,ALife很快就會像AI那樣蓬勃發(fā)展。AI的真正進步,需要我們集結(jié)足夠的“人工”計算能力來模擬(或至少模仿)數(shù)十億個神經(jīng)元的活動,以接近大腦的復雜性。而從零開始的ALife則需要走得更遠,重現(xiàn)地球上數(shù)十億年的進化歷程。這仍然是一項艱巨的任務,不過,我們并非毫無進展。
![]()
?Windows系統(tǒng)下的Brainfuck IDE示例. 圖源:softwarerecs.stackexchange.com
谷歌“智能范式”團隊近期開展的實驗表明,在一個能夠支持計算的模擬玩具宇宙中,我們可以從純粹的隨機狀態(tài)出發(fā),讓最簡單的“生命形式”自發(fā)出現(xiàn)。其中一個實驗是從一堆隨機字符串“湯”開始,每個字符串長64字節(jié)。256種可能的字節(jié)值中有8種對應于20世紀90年代一種名為“Brainfuck”的極簡編程語言的指令。這些字節(jié)串可以被視為圖靈機的紙帶,而8條計算機指令則規(guī)定了圖靈機的基本操作。實驗過程是反復從“湯”中隨機抽取兩條紙帶,將它們拼接在一起,“運行”拼接后的紙帶,再將紙帶分開,放回“湯”中。起初,似乎沒什么特別的變化;我們看到的只是隨機的紙帶,偶爾會有一個字節(jié)被隨機修改。但在進行了幾百萬次這樣的交互之后,功能性的紙帶出現(xiàn)了,并開始自我復制:這就是最簡單的“人工生命”。
從某種程度上講,人工生命的出現(xiàn)宛如水結(jié)冰或沸騰時發(fā)生的相變。然而,常規(guī)物質(zhì)的相態(tài)特征取決于其統(tǒng)計意義上的均勻性,例如,冰是有序的原子晶格,而氣體的原子位置則呈現(xiàn)隨機分布,液體則介于兩者之間。相比之下,生命物質(zhì)則要復雜得多,其在每個尺度上都展現(xiàn)出多樣且有目的的結(jié)構(gòu)。這是因為計算需要不同的功能部件協(xié)同工作,這一點在任何機器、生物體或程序中都顯而易見。
看著結(jié)構(gòu)復雜、目的明確且功能完備的結(jié)構(gòu)自雜亂無章的噪聲中逐漸涌現(xiàn)出來,這過程充滿神奇的魔力,但這絕非超自然或奇跡。數(shù)十億年前,地球上就曾發(fā)生過類似的生命從無到有的相變,我們也可以推測在其他適宜生命存在的行星或衛(wèi)星上也發(fā)生過類似事件。
生命具有計算性,因為其穩(wěn)定性取決于生長、自愈或繁殖;而計算本身也必須進化以支持這些基本功能。
那么,在一個隨機的環(huán)境中,生命的復雜性到底是如何產(chǎn)生的?更進一步地問,這種復雜性又是如何持續(xù)存在呢?答案是:任何具有自愈或繁殖能力的生命體都比無生命的惰性物質(zhì)更“動態(tài)穩(wěn)定”,因為生命體(或其后代)在未來仍會存在,而任何無生命的物質(zhì)都會隨著時間的推移而退化,屈服于隨機性。生命是具有計算性的,因為其穩(wěn)定性取決于生長、自愈或繁殖;而計算本身也必須進化以支持這些基本功能。
這種關(guān)于生命的計算視角,也為生命在進化過程中復雜度不斷增加的現(xiàn)象提供了新的見解。由于計算物質(zhì)——包括生命本身——是由需要協(xié)同的不同部分組成的,進化將同時作用于各個部分和整體,這一過程在生物學中被稱為“多級選擇”(multilevel selection)。
通過這一機制,現(xiàn)有的組成部分(或完整的生物體)能夠反復組合,從而形成越來越龐大、越來越復雜的實體。主流觀點認為,在遠古時期的原始海床上,分子聚合形成了能夠自我復制或“自催化”的反應循環(huán);這些化學循環(huán)與脂肪膜融合,形成了最早的細胞;細菌和古菌結(jié)合形成了真核細胞;這些復雜的細胞又組合在一起,形成了多細胞生物......每一次這樣的重大進化轉(zhuǎn)變都以功能性共生關(guān)系為特征,即一種相互依存的形式,在這種形式中,先前獨立的實體聯(lián)合起來,形成一個更大的整體。
進化階梯的最初幾級臺階,并不涉及具有可遺傳基因編碼的生命實體。然而,一旦這些聯(lián)合起來的實體具有生命并因此具備了計算能力,那么隨后的每一次組合都會增強共生整體的潛在計算能力。而在這一進化階梯的終點處,人類的智能水平已遠遠高于那些最早的生命形式,這源自于底層的約860億個神經(jīng)元的協(xié)同運算,所有神經(jīng)元相互并行著處理信息。
![]()
神經(jīng)計算
計算機科學的先驅(qū)們早就深刻認識到,我們的大腦本質(zhì)上就是一臺計算機。事實上,在20世紀40年代,計算機科學和神經(jīng)科學這兩個新興領(lǐng)域之間幾乎沒有區(qū)別。電子計算機的開發(fā)初衷正是為了在工業(yè)規(guī)模上執(zhí)行腦力勞動,就像上個世紀工廠機器的開發(fā)是為了實現(xiàn)體力勞動的自動化一樣。最初,重復性的腦力勞動由“人腦計算機”完成,就像電影《隱藏的人物》(hidden figures)中的女性,承擔了戰(zhàn)爭時期以及后來太空競賽所需的大量計算工作(但她們往往得不到認可,報酬也很低)。
因此,新型“人工”計算機的核心部件——構(gòu)成電子電路的邏輯門,最初被構(gòu)想為人工神經(jīng)元。那些將計算機稱為“電子大腦”的記者們,并非那個年代的“標題黨”,他們真實描繪了計算機科學先驅(qū)們的雄心壯志。對于那些早期的計算機科學家來說,試圖復制任何形式的思維活動,都不過是順利成章的事了。
然而,那些雄心壯志很快便破滅了。一方面,數(shù)字計算機確實范圍明確的程序性任務上取得了巨大成功——通過編程,電子計算機能夠以低成本、零差錯、大規(guī)模的方式完成諸如火箭軌道計算和薪資核算之類的工作。另一方面,20世紀50年代的神經(jīng)科學家卻發(fā)現(xiàn),真正的神經(jīng)元要比邏輯門復雜得多。
更糟糕的是,事實證明,編寫能夠執(zhí)行最簡單日常人類功能(從視覺識別到基本的語言理解)的程序竟都無法實現(xiàn),更不用說復雜推理、文學分析或藝術(shù)創(chuàng)作了。對于這些事情,我們(至今仍然)不知道該如何編寫精確的程序。這種注定失敗的嘗試如今被稱為“傳統(tǒng)AI”或GOFAI(Good Old-Fashioned AI)。我們本想制造出像HAL 9000那樣的智能體,結(jié)果得到的卻只是“預約,請按1;修改現(xiàn)有預約請按2”。
一種看似合理的解釋出現(xiàn)了,為GOFAI的失敗提供了理由:計算機不是大腦,大腦也不是計算機。任何相反的觀點都被認為是幼稚的,是“炒作”,或者最多只是個不恰當?shù)谋扔鳌;蛟S,人類行為無法被編程這一想法多少讓人感到安心。在很大程度上,神經(jīng)科學和計算機科學分道揚鑣了。
然而,“計算神經(jīng)科學家”們繼續(xù)將大腦視為一種信息處理系統(tǒng),盡管其設計與傳統(tǒng)電子計算機截然不同。大腦沒有中央處理器或單獨的存儲器,不會只按順序執(zhí)行指令,也不使用二進制邏輯。不過,正如圖靈所證明的,計算具有通用性。只要有足夠的時間和內(nèi)存,任何計算機,無論是生物的還是人工的,都能模擬任何其他計算機。事實上,多年來,神經(jīng)科學家已經(jīng)建立了越來越精確的生物神經(jīng)元和神經(jīng)網(wǎng)絡的計算模型。這些模型不僅包括最能體現(xiàn)神經(jīng)活動特征的“全或無”脈沖或“動作電位”,還包括化學信號、基因表達、電場等現(xiàn)象的影響。
人類的智力水平已遠遠高于那些最早的生命形式,這源自于底層的約860億個神經(jīng)元的協(xié)同運算,所有神經(jīng)元相互并行著處理信息。
在此,有必要解釋一下“模型”(model)這個詞。在傳統(tǒng)用法中,模型絕非真實事物,比如火車模型或金融模型。它只是一張地圖,而非實際的地域。神經(jīng)科學家在構(gòu)建神經(jīng)網(wǎng)絡模型時,通常也是秉持這種精神。他們試圖了解大腦的工作原理,而非探索如何賦予計算機思維能力。因此,他們的模型是高度簡化的。
然而,計算神經(jīng)科學提醒我們,大腦也在忙于計算。因此,大腦的計算功能本身就是一個模型。所以,現(xiàn)實世界就是一張地圖——如果這張地圖和現(xiàn)實世界一樣大,它就等同于真實事物,就像一個全尺寸的模型鐵路一樣。換言之,如果我們能造出一個完全實現(xiàn)的大腦模型,它就能反過來對我們進行建模!
一方面,GOFAI經(jīng)歷著屬于自己的反復興衰循環(huán),而在另一方面,另一種關(guān)于如何讓計算機思考的“聯(lián)結(jié)主義”學派(connectionist)則始終存在著,且常常與計算神經(jīng)科學相互聯(lián)動。聯(lián)結(jié)主義者放棄了基于程序員預設規(guī)則的符號邏輯,轉(zhuǎn)而擁抱“機器學習”方法,讓神經(jīng)網(wǎng)絡從經(jīng)驗中學習,類似于我們?nèi)祟惖膶W習方式。
盡管常常被GOFAI所掩蓋,但聯(lián)結(jié)主義者從未停止過嘗試讓人工神經(jīng)網(wǎng)絡完成現(xiàn)實生活中的認知任務。在這些堅持不懈的人當中,有杰弗里·辛頓(Geoffrey Hinton)和約翰·霍普菲爾德(John Hopfield),他們因在機器學習方面的突出貢獻而獲得2024年諾貝爾物理學獎;還有許多該領(lǐng)域的先驅(qū)盡管他們的貢獻未得到廣泛認可,比如美國心理學家弗蘭克·羅森布拉特(Frank Rosenblatt)和詹姆斯·麥卡利蘭(James McClelland)以及日本計算機科學家福島邦彥(Kunihiko Fukushima)。不幸的是,20世紀的計算范式(至少直到90年代)對機器學習并不友好,這不僅是因為人們對神經(jīng)網(wǎng)絡普遍持懷疑態(tài)度,還因為編程本質(zhì)上是符號性的——計算機是為按順序執(zhí)行指令而設計的,而這與神經(jīng)計算并不契合;而在最初,這本只是一種設計選擇。
最初的邏輯門是用真空管制成的,這種真空管極不可靠且需要頻繁更換。為了使計算盡可能地穩(wěn)健可靠,所有計算都自然而然地基于每個真空管可區(qū)分的最小“狀態(tài)”:“關(guān)”或“開”。由此形成了二進制系統(tǒng),只使用0和1,恰好對應著布爾邏輯(Boolean logic)的“真”(或1)和“假”(或0)的基本符號基礎。
同理,構(gòu)建“中央處理器”(CPU)也是采用最少數(shù)量的“易故障”真空管來逐條執(zhí)行指令。這意味著要將處理單元與內(nèi)存分離,并通過一根電纜或“總線”將數(shù)據(jù)和指令在存儲器和CPU之間串行傳輸。
這種“經(jīng)典”的計算范式在很長一段時間內(nèi)蓬勃發(fā)展,這得益于摩爾定律(Moore’s Law)——這是后來的芯片制造商英特爾的創(chuàng)始人戈登·摩爾(Gordon Moore)在1965年提出的一個著名觀點:微型化使芯片上的晶體管數(shù)量每一年或兩年就翻一番。隨著晶體管尺寸的縮小,它們的運算速度也呈指數(shù)級提升,成本大幅降低,耗電量也減少了。于是,龐大昂貴的大型機變成了小型機,然后是臺式機、筆記本電腦、手機,再到可穿戴設備。如今,計算機已經(jīng)小到可以穿過一根注射器針頭。筆記本電腦和手機主要由電池和屏幕構(gòu)成;這類設備中的實際計算機“片上系統(tǒng)”(SoC),面積僅約一平方厘米,厚度不到十分之一毫米——一滴水的體積都是其數(shù)倍。
![]()
?片上系統(tǒng)(SoC)示意圖. 圖源:ansys
盡管規(guī)模上的這一進步令人矚目,但它并沒有引領(lǐng)我們走向大腦。大腦既不微小也不快速,其運行速度遠比智能手表中的計算機要慢得多。然而,請記住,它同時擁有約860億個工作狀態(tài)下的神經(jīng)元。這加起來就是極其龐大的計算量,而且由于其運行相對緩慢,并且使用本地存儲的信息,因此它非常節(jié)能。即便計算機的運行速度在不斷提升,人工神經(jīng)計算的效率仍然不高,因為它們?nèi)圆捎么袌?zhí)行模式:根據(jù)需要從單獨的內(nèi)存中讀寫數(shù)據(jù)。
直到英偉達等公司開始設計多處理器并行芯片,運行真正有意義的大規(guī)模神經(jīng)網(wǎng)絡才成為可能。并行化在一定程度上是對摩爾定律原始形式逐漸失效的一種回應。盡管晶體管仍在不斷縮小,但自2006年左右起,處理器運行頻率已無法繼續(xù)提高,實際上限約為幾千兆赫茲(每秒數(shù)十億次時鐘周期)。
即便計算機的運行速度在不斷提升,人工神經(jīng)計算的效率仍然不高,因為它們?nèi)圆捎么袌?zhí)行模式。
并行化意味著要改變編程模型,使其更傾向于使用短代碼片段(最初被稱為“像素著色器”,因為它們是為圖形設計的),以便能夠在多個處理器上同時執(zhí)行。著色器(Shader)被證明非常適合并行化神經(jīng)網(wǎng)絡。因此,最初為游戲設計的圖形處理單元(GPU)如今為AI提供動力。除此之外,谷歌的張量處理單元(TPU)也是基于類似的設計原則。
盡管圖形處理器(GPU)和張量處理器(TPU)朝著正確的方向邁出了一步,但當今的AI基礎設施仍受困于其傳統(tǒng)的架構(gòu)。我們距離擁有千兆級處理器并行處理本地存儲數(shù)據(jù)的芯片還很遙遠。而且,AI模型仍然串行指令來實現(xiàn),究其根源,傳統(tǒng)的計算機編程、芯片架構(gòu)和系統(tǒng)設計根本不像大腦。我們在經(jīng)典計算機上模擬神經(jīng)計算,這效率低得就像過去人類計算時代用大腦模擬經(jīng)典計算一樣。
不過,在接下來的幾年里,我們預計會看到一種真正的神經(jīng)計算范式出現(xiàn)。神經(jīng)計算最終可能會在光子、生物、化學、量子或其他全新的基質(zhì)上實現(xiàn)。但即便“硅基大腦”是利用熟悉的芯片技術(shù)制造出來的,其組件的組織方式也會有所不同。每平方厘米的硅片都將包含數(shù)以百萬計的信息處理節(jié)點,這些節(jié)點就像一個個神經(jīng)元一樣能夠同時運作。
這些神經(jīng)芯片不會運行程序。它們的功能將不是由代碼(至少不是我們?nèi)缃袼熘哪欠N代碼)來決定的,而是由存儲在整個計算區(qū)域內(nèi)的數(shù)十億甚至數(shù)萬億個數(shù)值參數(shù)來決定。神經(jīng)硅腦能夠被“刷新”,其參數(shù)可以按照需要進行初始化;但它也能夠從經(jīng)驗中學習,即時修改這些參數(shù)。計算將是分散且穩(wěn)健的,偶爾的故障或局部損壞無關(guān)緊要。這與大腦的天然架構(gòu)不謀而合,而這絕非巧合。
![]()
預測智能
對于我們這些語言模型早期開發(fā)者來說,僅憑預測下一個單詞(或“下一個標記”),AI就展現(xiàn)出的驚人的通用智能,這一發(fā)現(xiàn)具有劃時代的意義。即便我們認同大腦是可計算的,大多數(shù)人依然認為真正的AI需要某種特殊算法,來破解智能與意識的亙古謎團。所以,當僅靠大規(guī)模應用下一個標記預測(next-token prediction)就“解決”了智能問題時,這著實令人震驚。
而從最初的震驚中緩過神后,我們會意識到這并不意味著再無未解之謎,也不意味著意識不存在,或者心智只是《綠野仙蹤》(Wizard of Oz)里的“幻想”。大語言模型(LLM)背后的神經(jīng)網(wǎng)絡規(guī)模龐大,且已被證明能夠進行任何計算,就像一臺運行程序的經(jīng)典計算機一樣。實際上,LLM能學會的算法種類如此之多,已遠超計算機科學家發(fā)現(xiàn)或發(fā)明的算法總和。
或許,這種震驚是如此多余。我們早已知道大腦具有計算能力,且它的一切能力必然是可習得的,要么通過進化,要么通過經(jīng)驗——否則我們根本就不會存在。于是,我們發(fā)現(xiàn)自己已身處在一種奇怪的境地,即在尚未完全理解某事物的情況下就已將其復制出來。當圖靈和馮·諾依曼為計算機科學做出貢獻時,理論還曾大幅領(lǐng)先于實踐。而如今,實踐則反過來超越了理論。
實驗室能夠創(chuàng)造出智能,為我們探究其長期存在的奧秘提供了強大的新途徑,因為盡管有不同的聲音,但人工神經(jīng)網(wǎng)絡并非“黑箱”。我們不僅能夠?qū)徱暺渌季S鏈,還可以更深入地探究它們,以開展“人工神經(jīng)科學”。與生物大腦不同,我們可以記錄和分析其活動的每一個細節(jié),大規(guī)模進行完全可重復的實驗,并開啟或關(guān)閉網(wǎng)絡的任何部分以觀察其作用。
盡管AI模型與大腦之間存諸多顯著的差異,但通過分析,我們也發(fā)現(xiàn)了它們之間存在著驚人的功能相似性,這表明其二者存在共同的基本原理。在“NeuroAI”這一旗幟下,AI從數(shù)十年的大腦研究中汲取靈感,如今也開始反向回報神經(jīng)科學。
盡管我們尚未完全理解LLM所學習的算法,但我們開始明白為何學習預測下一個詞元會如此有效。在神經(jīng)科學領(lǐng)域,“預測性大腦假說”(predictive brain hypothesis)由來已久;該假說認為大腦進化是為了不斷地建模和預測未來,其進化是通過感知環(huán)境、自身、自身行為及其對自身和環(huán)境的影響而實現(xiàn)的。我們能夠有目的地、明智地行事,正是依賴于這樣的模型。
我們在經(jīng)典計算機上模擬神經(jīng)計算,這效率低得就像過去人類計算時代用大腦模擬經(jīng)典計算一樣。
想象一下自己起身拿一杯水的場景。在該過程里,一個人能夠在短短一兩秒內(nèi)就學會如何很好地對世界和自己的身體進行建模,從而將手伸向杯子,用手指握住它,然后送到嘴邊喝掉。然而,這其實絕非易事。在這些動作的每個階段,你的神經(jīng)系統(tǒng)都會計算出一個預測值,并將其與本體感覺反饋進行比較。你的眼睛在場景中快速地移動著,以進一步進行誤差校正。
從更高的層面來看,你預測喝水能解渴。口渴本身也是一種預測信號,盡管是整個物種在漫長的進化時間尺度上“習得”的。無法預測自身對水的需求的生物,存活時間不會太長,也就無法將其有缺陷的自我模型傳遞下去。
演化濃縮了無數(shù)前代的經(jīng)驗,并于最終被歸結(jié)為繁衍成功或死亡的粗略信號。當新生兒認出人臉,或者一只從未見過蛇的貓被背后突然出現(xiàn)的黃瓜嚇得跳起來時,演化學習(evolutionary learning)就在發(fā)揮作用。
機器學習涉及調(diào)整模型參數(shù),這些參數(shù)通常被認為代表突觸(即神經(jīng)元之間的連接),通過終身學習而增強或減弱。這些參數(shù)通常是隨機初始化的。但在大腦中,神經(jīng)元是根據(jù)遺傳編碼(且對環(huán)境敏感)的發(fā)育程序連接起來的。我們預計,未來的AI模型也將演化為自我構(gòu)建的系統(tǒng)。它們將通過經(jīng)驗動態(tài)地生長和發(fā)展,而不是具有固定參數(shù)數(shù)量的靜態(tài)、人工設計的架構(gòu)。
在不同時間尺度上進行統(tǒng)一學習,或許還能消除當前模型訓練與正常運行(或推理)之間的差距。如今,最先進的LLM訓練成本極其高昂,要耗費大量計算資源長達數(shù)月,而推理則相對便宜,可以實時完成。然而我們知道,LLM掌握的最重要技能之一就是學會學習,這也就解釋了它們?yōu)楹文茉趯υ掃^程中處理新的想法、詞匯或任務。
不過,就目前而言,任何新獲得的知識都是即時性的,其僅在“上下文窗口”內(nèi)存在,而模型參數(shù)則自始至終保持不變。未來那些能夠?qū)⑿袆优c預測統(tǒng)一起來的模型,應該可以像我們一樣,在運行過程中持續(xù)累積、開放式學習。
同樣地,我們開始看到一種轉(zhuǎn)變,人們不再將AI模型的能力局限于其初始離線訓練階段,而是轉(zhuǎn)向“測試時擴展”(test-time scaling),在這種模式下,模型只需花更多時間思考其響應就能變得更強大。更類似人腦的模型設計,應能讓這種當下的改進像我們?nèi)祟愐粯硬粩嗬鄯e,從而使所有未來的響應都能從中受益。
由于支撐LLM的神經(jīng)網(wǎng)絡是強大的通用預測器,所以它們不僅能夠?qū)φZ言、聲音和視頻進行建模,還能徹底變革機器人技術(shù),前文所提到的抓取一杯水的例子也就不足為奇了。幾十年來,人工編程的GOFAI在超出裝配線那種重復、常規(guī)化的機器人技術(shù)方面一直舉步維艱。但如今,類似LLM的“視覺-語言-動作”模型能夠?qū)W會驅(qū)動各種各樣的機器人身體,從Waymo無人車到人形機器人(以及許多其他)形態(tài),被越來越多地部署在了復雜的非結(jié)構(gòu)化環(huán)境中。
![]()
?汽車大廠的自動駕駛汽車比賽. 圖源:fortune
通過運用思維鏈和推理軌跡,將大問題拆解為較小的中間步驟,預測模型甚至能夠模擬出多種可能的結(jié)果或意外情況,從潛在的未來樹中進行選擇。這種“有選擇性的”預測,可能正是我們自由意志概念的成立機制。
最終,生命體的一切行為都可以被視為一種自我實現(xiàn)的預言。生命就是那種能將自身預測為持續(xù)存在的事物,而且隨著智能的不斷提升,這種預測也會變得愈發(fā)復雜精妙。
擁抱預測處理范式,包括將規(guī)劃、行動和預測統(tǒng)一起來,不僅有望進一步改進語言模型和機器人技術(shù),而且還能將機器學習、神經(jīng)科學甚至理論生物學的理論基礎建立在統(tǒng)一基礎之上。
![]()
通用智能
有人認為,LLM只是偽智能:它們看似聰明,實則不然。這些懷疑論者認為,我們通過讓AI“自動補全”海量句子,訓練出了能通過圖靈測試的機器,但這些機器只是讓我們誤以為“有人在”,實際上并非如此。
許多人持相反觀點,認為AI是真實的,并且我們即將實現(xiàn)“通用人工智能”(AGI)——盡管對于如何定義它存在各種不同的看法。對不同的人來說,這一前景可能令人興奮、令人擔憂,甚至威脅存在。
盡管有人反對,但人工神經(jīng)網(wǎng)絡確非“黑箱”。
那么,哪一方是正確的呢?答案或許是“都不是”:雙方陣營中的大多數(shù)人認為AGI是一個在未來某個時候會(或不會)跨越的明確界限。但實際上,似乎并不存在這樣的界限——或者即便存在,我們可能已經(jīng)跨越了它。
首先來分析懷疑論者的觀點。對許多人來說,AI完成任務的能力——無論是聊天、寫詩、駕駛汽車,還是做些全新的事情——都無關(guān)緊要,因為AI的實現(xiàn)方式從根本上排除了其具備真正智能的可能。這種觀點可能基于這樣的斷言:大腦除了“單純的”預測之外還必須執(zhí)行其他操作,大腦不是計算機,或者簡單地說AI模型沒有生命。因此,懷疑論者通常認為,當應用于AI時,諸如“智能”、“理解”、“能動性”、“學習”或“幻覺”之類的術(shù)語需要加引號,因為這都是不恰當?shù)娜烁窕硎觥?/p>
這種對措辭的焦慮有必要嗎?從功能的角度來看,答案是否定的。我們稱鳥的翅膀和飛機的機翼都是“翅膀”,并非因為它們由相同的材料制成或工作原理相同,而是因為它們發(fā)揮著相同的作用。我們是否應該在意飛機實現(xiàn)飛行的方式與鳥類不同?如果我們的關(guān)注點在于目的——即鳥類和飛機為何要有翅膀,那么我們就不必在意這種困擾。
功能主義(Functionalism)是所有“有目的”的系統(tǒng)的標志性特征,這里的系統(tǒng)包括生物體、生態(tài)系統(tǒng)和技術(shù)系統(tǒng)。一切“有目的”的事物都是由相互依存的部分組成的,每個部分都為其他部分提供功能支持;而這些部分本身也常常由更小的相互依存且有目的的部分構(gòu)成。
許多AI懷疑論者明里暗里更關(guān)心的是實現(xiàn)方式而非所取得的成果(比如飛行或智能)。然而,大自然對“如何實現(xiàn)”并不在意。為了增強靈活性或穩(wěn)定性,無論是人工系統(tǒng)還是自然系統(tǒng),常常會采用功能相同但工作原理不同的部件進行替代或同時使用。比如在物流領(lǐng)域,鐵路和卡車都能運輸貨物;作為客戶,你只關(guān)心貨物能否送達。在您的細胞中,有氧呼吸和無氧呼吸可能具有相同的功能,當你運動過猛,有氧呼吸跟不上時,無氧呼吸途徑就會啟動。
神經(jīng)系統(tǒng)也是如此。它同樣由具有功能關(guān)系的各個部分組成,這些部分同樣可以被功能相當?shù)牟考娲N覀円呀?jīng)在一定程度上做到了這一點,比如人工耳蝸和人工視網(wǎng)膜,盡管這些假體目前還無法達到生物耳朵或眼睛的質(zhì)量。不過,神經(jīng)義肢最終將與我們與生俱來的感覺器官相媲美,甚至超越它們。
有朝一日,我們甚至可能以同樣的方式替換受損的腦組織。這之所以可行,是因為你沒有“小人”(homunculus),即你的大腦中并無某個特別不可替代的區(qū)域是“你”的所在之處。讓你成為你的并非大腦或身體的任何一部分,也不是你的原子(它們無論如何都會頻繁更新),更不是你身體每一部分的具體實現(xiàn)方式。相反,你是一個高度復雜且動態(tài)的功能關(guān)系集合體。
那么AI模型呢?LLM不僅實現(xiàn)方式與大腦截然不同,它們與我們的關(guān)系也不同于人與人之間的關(guān)系。它們沒有身體,沒有生命經(jīng)歷,沒有親屬關(guān)系,也沒有長期的情感羈絆。這些差異思考AI的倫理和法律地位時至關(guān)重要,但在諸如智能和理解能力之類的問題上則無關(guān)緊要。
一些研究人員雖然在理論上認同所有這些前提,但仍堅持認為AGI存在一個當前的AI系統(tǒng)尚未跨越的門檻。那么,我們?nèi)绾尾拍苤浪鼈兒螘r跨越了呢?答案必然涉及用于測試我們認為構(gòu)成通用智能的能力的基準。
目前,我們已擁有了許多套基準測試方案。其中有些方案,比如AI研究員弗朗索瓦·肖萊特(Francois Chollet)的“抽象與推理語料庫”,類似于智商測試。還有一些則更為全面;例如,谷歌DeepMind的研發(fā)人員就強調(diào),我們更應關(guān)注能力而非過程,他們還強調(diào)通用智能代理需要勝任“包括學習新技能在內(nèi)的廣泛非物理任務”。但究竟應該評估哪些任務呢?出某些競爭激烈的市場中界定明確的技能之外,我們可能很難將自己劃分為“勝任者”(超越50%)、“專家”(超越90%)和“大師”(超越99%)等類別。
為了增強靈活性或穩(wěn)定性,無論是人工系統(tǒng)還是自然系統(tǒng),常常會采用功能相同但工作原理不同的部件進行替代或同時使用。
AGI這一術(shù)語最早可追溯至2002年,計算機科學家彼得·沃斯(Peter Voss)和姆拉丹·約萬諾維奇(Mla?an Jovanovi?)在2023年的一篇論文中將其極致簡化為“與人類相當?shù)耐ㄓ谜J知能力”。但也有些僅從經(jīng)濟角度的界定。OpenAI官網(wǎng)將AGI定義為“一種高度自主的系統(tǒng),能夠在大多數(shù)經(jīng)濟價值高的工作中超越人類”。2023年,AI企業(yè)家穆斯塔法·蘇萊曼(Mustafa Suleyman,現(xiàn)為微軟AI部門的首席執(zhí)行官)提出,當一個AI能夠賺取一百萬美元時,它就具備了通常意義上的“能力”。
這樣的門檻既武斷,也并不符合我們對人類智能的認知方式。為何一定要強調(diào)經(jīng)濟活動呢?我們得賺多少錢才算聰明,那些沒能積累巨額財富的人就不聰明嗎?
當然,我們開發(fā)AI的動機在于期望豐富或拓展人類的科學、經(jīng)濟或社會生活。但生產(chǎn)力的經(jīng)濟衡量標準既不簡單,也不能直接反映智能水平。而且,這種衡量標準還排除了大量人類勞動,而這些勞動的寶貴價值并在經(jīng)濟維度上得到體現(xiàn)。對此,或許更應該得到關(guān)注的是任務本身的“生態(tài)效度”(ecological validity),即它們是否對他人重要,無論是經(jīng)濟上、藝術(shù)上、社會上、情感上還是其他方面。然而,這樣復雜的標準凸顯了純粹客觀的效能評估的難度。
如今的LLM已經(jīng)能夠完成一系列種類繁多且依舊在不斷增長的認知任務,而就在幾年前,任何理智的人都會認為這些任務需要高智商才能完成:從剖析復雜的論點到編寫代碼,再到緩和電子郵件的語氣,以及在線研究某個主題。在幾乎任何給定的領(lǐng)域,人類專家的表現(xiàn)仍然更勝一籌(這正是當前許多評估方法所試圖衡量的性能差距)。但我們必須承認,沒有哪一個人——無論多么聰明——擁有與AI相當?shù)膹V泛技能。在過去幾年里,我們已悄然轉(zhuǎn)變評估標準,即衡量AI性能不再以“任何個體”為基準,而是以“全人類”為參照。換言之,當前單個人類的“通用性”已低于AI模型。
這一進展迅速且持續(xù)不斷。我們認為,該領(lǐng)域的標準不斷提高,部分原因在于似乎沒有哪一項單獨的進展足以宣告AGI的成功。總有更多的工作要做。然而,我們相信,如果讓2002年的AI研究人員有機會接觸到當今的任何LLM,他絕對會毫不猶豫地說AGI已經(jīng)到來。
實現(xiàn)AGI中的“通用”,關(guān)鍵在于“無監(jiān)督訓練”,即在不規(guī)定任務的情況下進行機器學習。微調(diào)和強化學習常被用于后續(xù)增強特定技能和行為屬性,但如今大多數(shù)模型訓練都是通用的。AI的廣泛能力源于對語言、聲音、視覺或其他任何事物進行建模。一旦模型能夠通用地處理這些模態(tài),那么,就像我們一樣,只要首先描述、推斷或通過示例展示任務,它就能被指示執(zhí)行任何任務,甚至是全新的任務。
想要弄明白我們?nèi)绾螌崿F(xiàn)AGI,為何在經(jīng)歷了數(shù)十年的失敗嘗試之后才在最近得以實現(xiàn),以及這對理解我們自身心智意味著什么,我們就必須重新審視我們最根本的假設——不僅是關(guān)于AI的,還有關(guān)于計算本質(zhì)的。
![]()
集體智慧
“社會智力假說”(Social intelligence hypothesis)認為,像我們這樣的智慧生物之所以會出現(xiàn)智力爆發(fā),是因為存在一種社會性反饋循環(huán)的機制。展開來說,我們的生存和繁衍成功與否,取決于我們能否交朋友、吸引伴侶、獲取共享資源,至少是說服他人幫助照顧我們的孩子。實現(xiàn)所有這些都需要一種“心智理論”,即設身處地為他人著想的能力:對方看到了什么,感覺如何?他們在想什么?他們知道什么,不知道什么?他們會如何行動?
追蹤他人的心理狀態(tài)是一項認知挑戰(zhàn)。縱觀各類靈長類動物,研究人員觀察到大腦大小與群體規(guī)模之間存在相關(guān)性。在人類中,與心智理論相關(guān)的腦區(qū)體積與朋友數(shù)量有關(guān);此外,朋友多的人往往比社交孤立的人更健康、更長壽。綜合來看,這些觀察結(jié)果表明,持續(xù)的選擇壓力促進了社會腦的進化。
我們已悄然轉(zhuǎn)變評估標準,即衡量AI性能不再以“任何個體”為基準,而是以“全人類”為參照。換言之,當前單個人類的“通用性”已低于AI模型。
盡管心智理論存在馬基雅維利式(Machiavellian)*的一面,但它對于人類所獨有的高級合作形式至關(guān)重要。教學與學習、勞動分工、聲譽維護以及“IOU”心理賬戶都依賴于心智理論。因此,任何重要的經(jīng)濟、政治體系或技術(shù)的發(fā)展也都依賴于此。由于能夠大規(guī)模合作的部落或社區(qū)能作為一個更龐大且強大的整體發(fā)揮作用,心智理論不僅為個人帶來益處,也為群體帶來益處。
![]()
?馬基雅維利式智力 (Machiavellian Intelligence),是指個體通過狡黠、策略等手段來理解和操縱他人行為的能力。它由理查德·伯恩(Richard Byrne)和安德魯·威滕(Andrew Whiten)在1988年提出,用以解釋靈長類動物復雜智力的進化原因,認為智力的進化并非僅為了應對物理環(huán)境,更是為了在復雜的社會關(guān)系中更好地生存和繁衍。其典型表現(xiàn)包括欺騙、操縱他人以獲取資源、建立和利用社會聯(lián)盟等。圖源:Oxford: Clarendon Press, 1988.
隨著這種群體層面的優(yōu)勢變得具有決定性作用,心智的社會整合便邁向了一場重大的進化轉(zhuǎn)變——一種共生關(guān)系(symbiosis),如前所述,在這種關(guān)系中,曾經(jīng)獨立的實體聯(lián)合起來,創(chuàng)造出新的、更偉大的事物。而整合的代價則是,曾經(jīng)獨立的實體再也無法獨自生存和繁衍。這正是對現(xiàn)代城市化社會的真實寫照:我們當中又有多少人能夠在森林里獨自生存呢?
我們組成了一個超級生命體(superorganism)。正因如此,我們的智慧本就是集體性的,因此在某種意義上,我們可以被稱為超人。這就是為什么當我們用大量的人類集體成果來訓練LLM時,我們實際上已經(jīng)在創(chuàng)造一種超級智能,其知識廣度和平均深度都遠超任何單個個體——盡管LLM通常無法在專業(yè)領(lǐng)域內(nèi)超越人類專家。
這就是近期的一項嘗試“人類終極測試”(名字相當冷酷)的項目初衷,它試圖創(chuàng)建一個LLM目前尚無法通過的AI基準測試。其測試題目由來自100多個領(lǐng)域的近1000名專家編寫,AI需要掌握諸如翻譯羅馬墓碑上的帕爾米拉文,或者知道蜂鳥的籽骨支撐著多少對肌腱這樣的技能。前者古典學專家或許能答對,后者鳥類學家或許能答對,但普通人的測試表現(xiàn)可能會接近零分。相比之下,目前最先進的模型得分在3.3%到18.8%之間。
人類之所以擁有超凡的智慧,得益于其所擁有的認知分工;從某種意義上說,單個大腦也是如此。AI先驅(qū)馬文·明斯基(Marvin Minsky)曾提出“心智社會”(Society of Mind)的概念,認為我們看似單一的“自我”實際上是由眾多相互作用的專門化代理組成的蜂巢思維。的確,我們的大腦皮層由一系列“皮質(zhì)柱”組成,這些重復的神經(jīng)回路單元多次排列,形成一個廣闊的表面。盡管人類大腦皮層的厚度僅約2~4.5毫米,但其面積卻可達2500平方厘米(大腦表面之所以遍布褶皺,是因為要把面積相當于一張大號餐巾的腦組織塞進我們的頭顱中)。,正是由于這種模塊化設計,我們的大腦皮層才能在進化壓力驅(qū)動下迅速擴張,實際上就是增加了更多的皮質(zhì)柱。
大腦皮層的模塊化,不僅是發(fā)育意義上的,也是功能意義上的。大腦皮層的某些部分專門負責處理視覺,另一些部分負責處理聽覺或觸覺等;還有一些部分似乎專門負責社會性模仿、書寫和算術(shù)。由于這些任務如此多樣,人們很容易認為大腦中的相應區(qū)域,就像洗碗機和復印機那樣,高度專業(yè)化且彼此差異顯著。
其實不然:大腦皮層各個區(qū)域從嬰兒期就開始學習各自的任務。這種學習能力既強大又通用,例如皮層區(qū)域中存在諸如“視覺詞形區(qū)”,專門負責閱讀——而閱讀這項技能在人類歷史上出現(xiàn)得太晚,不可能通過自然選擇進化而來。我們的皮層并非為閱讀而生,但它能學會閱讀。每個皮層區(qū)域都運行著相同的通用“學習算法”,與其說是一臺預裝功能的機器,將之視為一個通過學習掌握特定領(lǐng)域知識的“人類專家”更為貼切。
這種“社會性皮層”(social cortex)視角強調(diào):你的大腦中并不存在一個“小人”(homunculus)或中央處理器(CPU)來承載“你”的存在;相反,大腦更像是一個“社區(qū)”,它能在沒有中央統(tǒng)籌的情況下協(xié)調(diào)一致地運作,這不僅依賴于各個區(qū)域執(zhí)行專門任務的能力,也依賴于這些區(qū)域“相互建模”的能力——就像人們需要心智理論來建立關(guān)系和更大的社會單元一樣。
那么,大腦區(qū)域本身是否也是由更小部分組成的“社區(qū)”在運作呢?我們認為確實如此。皮層回路由神經(jīng)元構(gòu)成,這些神經(jīng)元不僅執(zhí)行專門任務,似乎也學會了對其鄰近神經(jīng)元進行建模。這印證了那句熟悉的俚語“一路向下皆是龜”(turtles all the way down,暗指無限的遞歸),暗示智能最好被理解為一種“社會性分形”(social fractal),而非單一的整體實體。
當然也可能是“一路向上皆是龜”(turtles all the way up)。隨著大腦變大,個體可以變得更聰明;而隨著個體數(shù)量增多,社會也可以變得更聰明。這里存在一種奇妙的“跨尺度反饋循環(huán)”:我們只有通過增大大腦(以利于為他人建模),才能形成更大的社會;而我們大腦本身的增大,似乎也是通過一種類似的內(nèi)部認知分工(division of cognitive labor)實現(xiàn)的。
大腦區(qū)域本身是否也是由更小部分組成的社區(qū)在運作?我們認為確實如此。
AI模型似乎也遵循同樣的原則。研究人員普及了“規(guī)模法則”(scaling laws)這一概念,即模型的大小(以及訓練數(shù)據(jù)的數(shù)量)與模型的能力之間存在關(guān)聯(lián)。大致來說,規(guī)模更大的模型更聰明,就像大腦越大越聰明一樣。而且,與大腦一樣,AI模型也是模塊化的。實際上,許多模型都依賴于明確訓練一個緊密協(xié)作的“專家集體”,即所謂的“專家混合模型”(Mixture of Experts)。此外,即使是大型的、單一的模型也表現(xiàn)出“涌現(xiàn)模塊化”(emergent modularity)——它們通過學習如何將自身劃分為專門的模塊來實現(xiàn)規(guī)模擴展,這些模塊能夠分工合作、各司其職。
從社會性和認知勞動多尺度分工的角度思考智能,代表著一種深刻的范式轉(zhuǎn)變。它促使我們探索更像不斷發(fā)展的社交網(wǎng)絡的AI架構(gòu),而不是靜態(tài)的、越來越龐大的單體模型。同時,讓模型(以及子模型)逐步專業(yè)化,并與人類以及彼此之間形成長期合作,這一點也將至關(guān)重要。
參與“人類終極測試”的1000多位專家都清楚,從互聯(lián)網(wǎng)上能學到的東西是有限的。越過這一界限,學習就離不開行動和互動。當新的知識被分享時,知識的邊界才會拓展——無論是源于科學實驗、討論,還是線下長時間的創(chuàng)造性思考(這或許等同于與自己對話)。
在當前的前沿AI開發(fā)路徑中,已有的人類成果被整合并蒸餾成一個巨大的“基礎模型”,其權(quán)重隨后被凍結(jié)。但在此基礎之上,AI模型也正逐漸向“高度自主性”與“主體能動性”(agentive)演進,這種演變包括與其他智能體的協(xié)作或互動。AI在簡短的集中式互動中已經(jīng)很有幫助。但若要讓它們在拓展人類集體知識和能力邊界這類更大的項目中發(fā)揮作用,就必須賦予它們?nèi)缤祟惏慊邮匠掷m(xù)學習及多樣化發(fā)展的能力。
這無疑會引發(fā)擔憂,因為它為AI開啟了一條“開放式自我演化”的大門,而這正如同人類自身的發(fā)展一樣。AI安全領(lǐng)域?qū)⒛P烷_放式進化的能力稱為“元優(yōu)化”(mesa optimization),并將其視為一種威脅。但值得注意的是,我們發(fā)現(xiàn),即便當今的AI模型也已是元優(yōu)化器,因為預測本質(zhì)上涉及即時學習(learning on the fly);這就是聊天機器人在被指示執(zhí)行新任務時所做的。它之所以可行,是因為即使聊天機器人的神經(jīng)網(wǎng)絡權(quán)重已被凍結(jié),其每次輸出都會調(diào)取當前對話記錄的整個“上下文窗口”。盡管如此,現(xiàn)有聊天機器人仍存在某種“失憶癥”。它們通常無法在單次會話或多輪會話之外保留其學習成果。谷歌近期開發(fā)的“無限注意力”(Infini-attention)和長期記憶技術(shù),通過壓縮舊信息實現(xiàn)近乎無限的上下文窗口,標志著該領(lǐng)域的重大突破。
智能的社會視角,不僅為AI工程提供了新的視角,也為哲學中一些長期存在的問題提供了新的視角,如意識的“難問題”。如果我們把意識理解為我們對自己作為擁有自身經(jīng)歷、內(nèi)心世界和能動性主體的清晰認知,那么意識的出現(xiàn)就不足為奇了。我們構(gòu)建“自我”模型,是因為我們生活在充滿“自我”的社會環(huán)境中,必須不斷運用心智理論來預測他人的想法和感受。當然,我們也需要理解自己也是一個“自我”,這不僅是因為我們自己的過去、現(xiàn)在和未來的經(jīng)歷非常重要,還因為我們對他人的模型中也包含著他們對我們的模型。
數(shù)十年來,學界一直試圖通過實證測試來診斷心智理論能力的缺陷。當我們在LLM上運行這些測試時,毫不意外地發(fā)現(xiàn)它們的表現(xiàn)與人類不相上下。畢竟,在訓練模型的對話、故事和評論區(qū)數(shù)據(jù)中,自我意識和心智理論任務本就占據(jù)重要地位。我們的聊天機器人同樣依賴心智理論。在每次對話中,AI不僅需要構(gòu)建用戶模型,還要維持自身“友善助手”模型,以及用戶對其的認知模型——如此遞歸建模,層層嵌套。
![]()
超越常規(guī)的AI發(fā)展
經(jīng)過數(shù)十年的緩慢發(fā)展后,我們正快速邁向一個新階段——未來的AI不僅能響應人類個體的智能,還能拓展集體極限,超越人類的智能水平。面對AI迅猛的發(fā)展勢頭,我們既興奮、期待,又深知這是范式變革的關(guān)鍵時刻。就像歷史上所有重大轉(zhuǎn)折一樣,這個階段必然會伴隨著焦慮、爭論和動蕩,還面臨著許多必須謹慎處理的問題。
在這種時刻,我們不僅要優(yōu)先考慮技術(shù)突破,更應像國際象棋中的“跳馬”那樣,在推進技術(shù)進步的同時靈活轉(zhuǎn)向相鄰領(lǐng)域或不同范式,通過縱橫結(jié)合的方式開辟豐富的知識領(lǐng)域,重新思考既有假設,構(gòu)建新的理論基礎。為了開發(fā)真正造福人類、推動科學發(fā)展的智能系統(tǒng),最終借助其理解我們自身——無論是作為個體、小型智能生態(tài)群落,還是作為更大整體的組成部分,我們必須建立全新的范式。
https://www.noemamag.com/ai-is-evolving-and-changing-our-understanding-of-intelligence/
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
關(guān)于追問nextquestion
天橋腦科學研究院旗下科學媒體,旨在以科學追問為紐帶,深入探究人工智能與人類智能相互融合與促進,不斷探索科學的邊界。歡迎評論區(qū)留言,或后臺留言“社群”即可加入社群與我們互動。您也可以在后臺提問,我們將基于追問知識庫為你做出智能回復哦~
關(guān)于天橋腦科學研究院
天橋腦科學研究院(Tianqiao and Chrissy Chen Institute)是由陳天橋、雒芊芊夫婦出資10億美元創(chuàng)建的世界最大私人腦科學研究機構(gòu)之一,圍繞全球化、跨學科和青年科學家三大重點,支持腦科學研究,造福人類。
Chen Institute與華山醫(yī)院、上海市精神衛(wèi)生中心設立了應用神經(jīng)技術(shù)前沿實驗室、人工智能與精神健康前沿實驗室;與加州理工學院合作成立了加州理工天橋神經(jīng)科學研究院。
Chen Institute建成了支持腦科學和人工智能領(lǐng)域研究的生態(tài)系統(tǒng),項目遍布歐美、亞洲和大洋洲,包括、、、科研型臨床醫(yī)生獎勵計劃、、等。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.