![]()
新智元報道
編輯:KingHZ
【新智元導讀】從攔截彼得·蒂爾、警告馬斯克,到如今公開說「必須有適應能力」,哈薩比斯史詩級轉身:AI安全窗口正在永久關閉,他不再幻想制度,而是賭上全部身家——賭影響力,賭良知,賭自己。
最怕AI毀滅人類的人,正在拼命造AI!
最相信治理的人,如今親口承認:治理徹底靠不住!
最強調安全的DeepMind,也被拖入戰時軍備競賽!
就在幾小時前, DeepMind創始人Demis Hassabis哈薩比斯自己親手砸碎了AI安全幻想,從理想主義者徹底轉向現實派。
![]()
他承認:超級智能可能滅絕人類,卻只能靠自己「搶座上桌」來護航。
哈薩比斯,這個曾發誓要用嚴密的制度、法律約束和倫理委員會將AI鎖進籠子里的人,坐在那個破舊的吊燈下,無奈承認:
「安全不再取決于治理結構。即便有董事會,在關鍵時刻,他們也未必會做對的事。」
他轉而提出了一個極具現實主義、甚至帶有些許悲劇色彩的新方案:「我必須坐上桌,爭取影響力。」
幻想再三破滅,哈薩比斯轉身
哈薩比斯不是普通加速派。
一般而言,AI領袖通常分為兩派:一派是以OpenAI奧特曼為代表的「加速主義者」,相信技術總能解決技術帶來的問題;另一派是憂心忡忡的「末日預言家」,認為AI可能像核武器一樣導致人類滅絕。
但哈薩比斯是一個極其復雜的矛盾體:他是為了阻止末日,才決定親手制造AI。
這種近乎悖論的動力源于他極度深邃的焦慮。
哈薩比斯對「AI滅絕風險」了如指掌,熟悉程度甚至超過了最激進的抗議者。
他和DeepMind的另一位聯創Shane Legg,就在一次AI安全的講座上相識。
![]()
目前,Shane Legg任谷歌DeepMind的首席AGI科學家,擔任AGI安全委員會聯席主席,同時也領隊研究后AGI時代的世界可能是什么樣子。
在「奇點峰會」上,他曾攔截彼得·蒂爾(Peter Thiel),向他兜售關于機器如何超越人類的幻象。
他曾當面告訴馬斯克,殖民火星毫無意義,因為如果超級智能是惡意的,它同樣能造出橫跨星際的火箭,火星絕不是人類的避難所。
這種焦慮催生了他早期極具英雄主義色彩的「單體治理」(Singleton Scenario)構想——
他曾嚴肅地計劃,帶著全球最頂尖的科學家,躲進一個秘密的「地堡」——可能是摩洛哥的沙漠,也可能是某個與世隔絕的孤島。
在那里,他們將像開發曼哈頓計劃一樣,在沒有資本壓力、沒有地緣競爭、沒有世俗干擾的情況下,代表全人類開發出第一個「絕對安全」的超級智能。
哈薩比斯被馬斯克背刺?
「只要這個世界上只有一只手握著火種,我們就還能控制火勢。」這是哈薩比斯最初的邏輯。
為了這個邏輯,他在2014年將DeepMind賣給谷歌時,開出了歷史上最奇葩的收購條件:
即使谷歌付了錢,哈薩比斯依然要在AI安全事務上保持絕對的獨立;
設立一個由獨立專家組成的外部委員會來監督整個進程;
AI的軍事應用將被嚴格禁止。
從少年時代起,哈薩比斯就立志要構建強AI。而只有確保其安全性,他才能為畢生的事業找到正當理由。
谷歌收購前不久,哈薩比斯曾提醒DeepMind的研究員候選人,如果簽約加入,就要做好心理準備——最終的終局之戰來臨時,他會進入一個地下基地,實現單體治理的壯舉。
2015年,為了落實谷歌承諾設立的AI監督委員會,DeepMind組織了一場秘密集會,邀請了哲學家和技術專家參加。
哈薩比斯邀請馬斯克主持集會,地點設在馬斯克的SpaceX加州總部。
![]()
但這一招適得其反。這次集會,標志著哈薩比斯的安全構想開始瓦解。
馬斯克聽取了哈薩比斯及其聯合創始人的演示,隨后反其道而行之。他與奧特曼聯手創立了OpenAI。
那一刻,哈薩比斯的安全烏托邦就開始死了。
失了里子,還丟面子了
考慮到人性,這種局面不可避免。面對鉆木取火般史詩級的AI技術前景,人們并不會凝聚成一個單一的集體。他們爭論不休、相互嫉妒、各自為營。
此時,哈薩比斯本可以停下來重新思考。
如果「單一主體」的設想過于天真,AI開發者又如何避免一場沖向懸崖的競賽?
但哈薩比斯非但沒有停下腳步,反而加速前進。2016年,AlphaGo橫空出世。機器智能超越人類智力的時間表,一下子提前了。
為了跟上AI這一進展,哈薩比斯提出了新的想法,希望讓AI服務于人類。他與聯合創始人穆斯塔法·蘇萊曼一起,著手與谷歌談判,尋求建立一套新的治理保障機制。
為了推進這個秘密的「馬里奧計劃」(Project Mario),他聘請了一支頂尖的法律團隊,獲得了外部10億美元的資金承諾,并考慮如果無法獲得對技術的控制權,就讓DeepMind從谷歌獨立出去。
與此同時,蘇萊曼還帶領DeepMind團隊參與了一項幫助英國國家級的急性腎病管理項目。
如果能實現AI的獨立治理,又能改善普通英國民眾的健康狀況,哈薩比斯或許就能確信,自己的追求確實是向善的。
然而,這兩項努力均以失敗告終。
與谷歌圍繞治理權的拉鋸戰持續了三年,困難重重。
而幫助英國國家醫療服務體系的項目,則遭到了隱私保護倡導者的強烈反彈——他們憤怒于一家美國科技巨頭的子公司可能染指患者數據。
到2019年,哈薩比斯和DeepMind在這兩條戰線上都已退卻。蘇萊曼最后也離開了DeepMind。
ChatGPT致命一擊,谷歌AI狂飆
2022年,ChatGPT的爆發,像一顆核彈丟進了哈薩比斯的辦公室。
在此之前,哈薩比斯還試圖維持「科學家的優雅」。
他帶領團隊開發AlphaFold,破解蛋白質折疊難題,拿下了諾貝爾獎。
![]()
他認為這是AI服務人類的最高境界:一種純粹的、造福醫療的、可控的科學。
但市場不這么看。當ChatGPT成為歷史上增長最快的應用時,谷歌慌了,整個硅谷都瘋了。
2022年,ChatGPT爆火那天,哈薩比斯在內部定調:現在是戰爭狀態!
在這個狀態下,所有之前的安全承諾都變得脆弱不堪:
谷歌開始積極接觸國防部門,試圖將AI賣給五角大樓(曾是哈薩比斯的紅線)。
在權力斗爭中,原本那個「獨立倫理委員會」幾乎隱形。
為了追趕GPT-4,DeepMind與谷歌大腦強行合并,速度取代了嚴謹。
哈薩比斯看清了一個殘酷的現實:在AI競賽中,沒有一個非營利的制度能寄生在營利性巨頭的體內。
當生存受到威脅,所有的倫理都是奢侈品。
![]()
哈薩比斯親眼看著自己親手筑起來的所有墻,一堵一堵倒掉。
他終于承認:「即使有治理委員會,關鍵時刻也可能做錯決定。」
真正失控的不是模型,而是人類競賽
孤獨的人類守望者
現在,哈薩比斯徹底轉向現實主義。
他的目標,是爭取到「一張決策桌旁的席位,這樣當安全問題出現時」,他就能參與決定解決方案。
「事情不是非黑即白的,尤其是當你面對一項后果未知的技術時,」他告訴記者。「所以你必須有適應能力。你不得不從理想主義者轉變為現實主義者,但希望依然能堅守自己的價值觀。」
哈薩比斯對「治理」的徹底祛魅,放棄了制度安全,改為靠個人影響力「搶座上桌」。
一邊狂推AlphaFold拿諾貝爾獎、Gemini繼續沖鋒,一邊把希望死死攥在「有良知的人」手里。
更狠的反轉來了:連馬斯克這種曾經最激進的安全派都開始狂踩油門。
樂觀派還在喊「對齊技術能解決一切」,可哈薩比斯自己都不信了。
制度徹底死了。
OpenAI董事會罷免奧特曼,又瞬間被資本力量反殺。
他選擇了最無奈的一條路:「讓自己成為權力的一部分。」
他現在的安全邏輯是:既然我無法阻止這場競賽,那我就必須贏得這場競賽。我必須留在牌桌上,我必須擁有最高的話語權。
這樣,當真正的「奇點」來臨,當那個人類無法理解的決定需要被做出時,至少,坐在那個關鍵位置上的人,是一個從第一天起就對AI心存敬畏的哈薩比斯。
他現在只能賭——賭「好人掌權」能救世界。
可問題來了:如果AI安全只能靠「好人掌權」,到底是救贖,還是最危險的賭局?
AI安全窗口正在永久關閉。
超級智能若對齊失敗,造的火箭、殖民的太空,都逃不掉滅頂之災。
人類本性早已把統一治理變成永遠的笑話。
唯一希望,只剩「有良知的人掌握話語權」這種最脆弱、最危險的方案。
哈薩比斯不是唯一改變的人,他只是第一個把殘酷現實說透的人。
現在,第37手棋,已經落在我們每個人頭上——
你我正在見證的,是一場文明豪賭。
參考資料:
https://www.theatlantic.com/ideas/2026/03/ai-google-deep-mind-hassabis/686527/?gift=CEkEIkBH6dRxwlqcDGFBTO2NKBCl3GKJsmVqCahCOzo
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.