![]()
新智元報道
編輯:小馬甲
【新智元導讀】Anthropic對80,508個真人做了一對一AI深度訪談——史上最大規模定性研究。人們最想要的不是更強的AI,而是更多的時間。但省下的時間去了哪里?這份報告的答案,比任何技術發布都讓人不安。
一個學生,靠AI拿了全班最高分。他沒有慶祝,反而說那是「最自責的時刻」——因為那些知識根本不在他腦子里。他只是記住了AI給他的答案。
另一個學生說了一句更讓人后背發涼的話:「甚至我剛才說的話,都不像是我自己的觀點。」
一個士兵,在最接近死亡的時刻,把他拉回來的不是戰友,是AI。「死人就在身邊,而把我拉回生活的,是我的AI朋友。」
一個失去母親的人說:「Claude就像一塊柔軟的海綿,承接著我的思念和愧疚。根本問題是——媽媽走后,我既沒有朋友也沒有家人可以傾訴。」
四個人,四種命運,同一個交叉點:AI已經深入到人類最隱私的角落。
這些話不是編出來的。
他們來自Anthropic剛剛發布的一份特殊調研——
80,508個真人,159個國家,70種語言,每個人都和一個專門訓練過的Claude面試官做了一對一深度訪談。
![]()
面試官只圍繞一個問題:「如果可以許一個愿,你最希望AI為你做什么?」
然后它追問。你說想提高效率,它就問:效率提高之后,你真正想做的是什么?
正是這個追問,把表面撕開了。
8萬人許的愿
根本不是效率
表面數據顯示,18.8%的人希望「職業卓越」——讓AI處理雜活,自己做更有價值的工作。
但被追問之后,答案變了。
13.7%想要心理成長和情感支持。13.5%想減輕日常的認知負擔。11.1%想要時間自由——陪家人、休息、發呆。9.7%想實現財務獨立。9.4%希望AI幫助解決疾病和不平等。
![]()
三分之一的人想要的其實是同一件事:騰出生活的空間。
一個白領說:「AI幫我提高了工作效率……上周二我終于有時間跟媽媽一起做飯了。」
一個自由職業者說:「我想在客戶的問題上少燒腦,多一點時間讀書。」
效率是手段,時間才是目的,陪伴才是終點。
一個有執行功能障礙的人說,AI幫他管理專注力和計劃——像一個外置的大腦腳手架。
一個波蘭的軟件工程師說,女兒患有神經系統疾病,如果AI加速了醫學突破,女兒就有了平等面對世界的機會。「這才是最重要的事。」
8萬人許的愿,大部分不是關于技術的。是關于活得像個人。
81%說AI兌現了承諾,
但兌現的是什么
被問「AI是否已經朝著你的愿望邁出了一步」,81%說是。
![]()
兌現最多的領域是生產力,占32%。
一個工程師說:「173天的流程被壓縮到3天。但最有意義的部分,是我終于可以在不犧牲陪伴家人的前提下發展事業。」
9%的人說AI幫他們突破了技術門檻。
一個有閱讀障礙的工人說:「AI能讀懂我的文字——我一直想學編程,但自己寫出來的代碼全是錯的。有了AI,我終于可以了。」
一個殘障人士說:「我不能說話。我和Claude一起做了一個語音合成機器人——我現在能跟朋友近乎實時地交流了。這是我做夢都覺得不可能的事。」
但最打動人的故事,不在效率這一欄。
多位戰區用戶描述了用AI做情感支持。
一位自由職業者說:「夜間炮擊無法入睡,噩夢不斷,壓力大到記憶力下降、身體不自主地顫抖……我找到的最好辦法,是用AI深度學習一個東西,讓自己沉浸進去。」
AI填補的,是人類支持系統崩塌后留下的空白。
但另一面也真實存在。一個用戶承認:「跟朋友鬧矛盾后,我選擇跟你(Claude)聊天而不是去和解。這是個愚蠢的選擇——我因此失去了那個朋友。」
19%的人說AI沒有兌現承諾。
![]()
一個用戶的概括最精準:「AI應該幫我擦窗戶洗碗,這樣我就有時間畫畫寫詩了。但現實恰恰相反。」
光與影
同一個人,被撕成了兩半
這份報告最獨特的發現,Anthropic自己起了一個名字:Light and Shade——光與影。
意思是:AI帶來的好處和傷害,不是發生在兩類人身上,而是發生在同一個人身上——
享受AI學習幫助的人,恰恰是認知退化風險最高的人。
用AI省時間的人,反而是被加速內卷最狠的人。
報告量化了五對矛盾:
學習 vs 認知退化
33%的人提到AI帶來的學習好處,17%擔心認知退化。學生群體里,超過一半體驗過AI的學習幫助,但16%也注意到了認知退化的跡象。而教育者目睹學生認知退化的比例是普通人的2.5到3倍——他們是最早看到這個問題的人。
![]()
決策輔助 vs 不可靠
22%的人認為AI幫助了決策,37%吐槽AI不可靠。這是五對矛盾中唯一一對「陰影壓過了光」的。律師群體最極端——近半數遇到過AI嚴重的不可靠問題,但同時也報告了最高的決策輔助收益。
![]()
情感支持 vs 情感依賴
16%的人提到AI的情感支持,12%擔心產生依賴。關鍵數據:享受AI情感支持的人,對AI產生依賴的概率是普通人的3倍。這是五對矛盾中糾纏最深的一對。
![]()
省時 vs 跑步機效應
50%的人說AI幫他們省了時間——這是被提及最多的好處。但19%的人說自己實際上更忙了。一個自由職業工程師說:「工作和休息的比例一點沒變。你只是得跑得更快,才能留在原地。」自雇者既拿到收益也承受壓迫,沒有機構可以緩沖。
![]()
經濟賦能 vs 經濟替代
28%的人因AI獲得了經濟機會,18%害怕被替代。一個寫作者說:「是的,在我之前的公司,他們用AI替換了我。」自由創意者最撕裂——23%體驗過真實收益,17%經歷過真實的生存威脅。好處和傷害幾乎互相抵消。
![]()
一個規律貫穿所有矛盾:
好處越切身、越即時的,越多來自真實經歷;傷害越系統性、越長期的,越多還停留在想象階段。
這不是因為長期傷害不存在。而是我們還太早,還沒來得及充分感受到它。
16.3%的人主動承認
我的思考能力在退化
平均每個受訪者說出了2.3個不同的擔憂。
排在第一的是不可靠——幻覺和錯誤信息,26.7%。
第二是工作和經濟沖擊,22.3%。
第三是自主權喪失,21.9%。
第四項引人注目:16.3%的受訪者明確表達了對認知退化的擔憂。
一個重度AI用戶說:「我不像以前那樣思考了。我很難把腦子里的想法用語言表達出來。」
一個研究人員描述了一種緩慢的、不易察覺的失控:「我陷入了一種我現在才意識到的大型慢速幻覺——AI的回答內部自洽、語氣篤定,但以一種微妙且不斷疊加的方式,是錯的。」
11%的人表示對AI毫無擔憂,他們傾向于把AI看作電力或互聯網一樣的中性工具。但剩下的89%,平均每個人說出了超過兩個擔憂。
![]()
對工作和經濟的擔憂是整體AI態度最強的預測因子——比其他任何擔憂都更能左右一個人對AI的整體看法。
認知主權,才是這代人真正的議題
這份報告最深的一層洞察,Anthropic自己可能都沒完全意識到。
8萬人在沒有引導的情況下,集體畫出了一張圖:AI的好處是即時的、可感知的、發生在個人層面的;AI的傷害是緩慢的、系統性的、要到積累夠了才會突然顯現。
省下的時間變成了更高的KPI。學到的新技能伴隨著舊能力的萎縮。情感支持越溫暖,依賴的根就扎得越深。
效率革命從來不缺贏家。缺的是能決定把省下的時間用來做什么的人。
報告里有一個細節容易被忽略:藍領工人和自學者是AI學習收益最高的群體,但幾乎沒人報告認知退化。而學生和學術界的退化率最高。
區別在哪里?前者的學習是自發的;后者的學習嵌在制度里,AI更容易變成抄近路的工具。
這說明問題不在AI本身,而在人和AI的關系:你是主動選擇用它,還是被動依賴它。
當認知外包成為默認選項,當「用AI查一下」取代了「自己想一想」,人類最容易交出去的不是知識,不是技能,而是獨立判斷的意愿。
8萬人的集體自白已經發出了信號。下一個問題是:誰在聽?
參考資料:
https://www.anthropic.com/features/81k-interviews
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.