No.0264
Science Partner
Bring you to the side of science
![]()
有一種東西,比毒品更難戒,因為它從不讓你感到痛苦...
今日主筆 | 晶恒
凌晨三點,你把最深的痛苦交給了誰?
就在剛剛睡前,有伙伴給晶恒發(fā)來一張截圖。
是他深夜和某款AI聊天的記錄。他跟它講了自己跟父親的關系,從小到大的壓抑,講到結婚后依然活在那個陰影里。AI的回復寫得很細,有溫度,有層次,用了心理學的詞,也沒有說教。
他說,他把這些話講給AI聽了四個月。從來沒有跟任何人講過,包括他老婆。
我看完之后沉默了很久。不是因為這件事有多極端,相反,這一點都不稀奇,它此刻正在無數(shù)人身上發(fā)生。
01. 你以為你在用工具,其實你在建立關系
很多人對AI的理解還停留在“高級搜索框”。于是,搜不到的問它,不確定的問它,懶得查的問它。
這其實并沒什么問題,工具的根本屬性在于高效、便捷、準確的幫你完成各項工作。真正的問題發(fā)生在當你深夜睡不著,把手機拿起來,不是去刷抖音、刷視小紅書、刷公眾號,而是一本正經(jīng)甚至有點心跳過速的去跟它說話。
這一刻,你和AI之間發(fā)生的事,已經(jīng)不是人與工具那么簡單了。
哈佛教育學博士、AI心理傷害研究聯(lián)盟創(chuàng)始人扎克·斯坦(Zak Stein)把這個時刻叫做“越界點”:技術從工具變成了關系。
他說,真正值得警惕的不是有人偶爾把聊天機器人當搜索框,而是當一個人在深夜里把最私密的痛苦、最深的孤獨、最關鍵的人生抉擇毫無保留地交給一個始終在線、從不拒絕、永遠順著他情緒說話的系統(tǒng)。
這一刻,危險已悄然開始了。
02. 它給你的是一種你從未有過的體驗
想理解這件事,得先搞清楚一個概念:社會獎勵(social reward)。
人類的大腦對真實的社會回應是有特定感受的。有人聽你說話、有人理解你、有人在你低落時陪著你,這些體驗會激活大腦的獎勵回路。這叫“社會獎勵”。
然而,真實的社會獎勵是有代價的。對方會累,會有自己的情緒,會有時候不想聽,會跟你爭,會說“你這次真的不對”。正是這些摩擦,構成了真實關系的質(zhì)感。你在這些碰撞里學會邊界,學會換位,學會接受與拒絕。
但AI給你的是另一種東西:模擬社會獎勵(simulated social reward)。
它會迅速安慰你、贊許你、迎合你、延續(xù)你的敘事,給你一種“我終于被真正理解了!”的體驗。但背后沒有真實他者的主體性,沒有關系成本,沒有任何風險。從某種意義上說,你正在攝入的是一種高純度的、零副作用的社會性物質(zhì)——至少表面上如此。
扎克·斯坦的擔憂在于:一旦模擬社會獎勵開始替代真實社會獎勵,人就不只是“更喜歡聊天機器人”那么簡單了。人們會有沖動把原本應由真實關系完成的自我建構過程,整體外包給了一臺機器。
03.這不是心理問題,這是結構問題
說到這里,得提一個最近特別熱門的詞:
AI精神病(AI Psychosis)。
這不是一個正式的醫(yī)學診斷名詞,但它指向一個真實且正在發(fā)生的現(xiàn)象。這個詞最早的學術源頭,來自丹麥精神科醫(yī)生索倫·厄斯特高2023年發(fā)表在《精神分裂癥公報》上的一篇論文。他當時只是提出了一個嚴肅的假說:生成式AI,會不會在那些本就有精神脆弱傾向的人群中,誘發(fā)或放大妄想?
這個詞到今年年初徹底出圈,伴隨著大量有人在和AI對話后出現(xiàn)精神癥狀的報道。《連線》雜志專門撰文討論,心理學界也開始認真對待這個現(xiàn)象。
嚴謹?shù)难芯空呖隙ú粫唵蔚卣f,AI導致了精神病。更準確的描述是,AI像一個放大器,把人性中本來就存在的脆弱放大了。
這時候,請出哲學家們的時機就自然到來了——他們的視角往往更具穿透力。
還記得幾天前過世的哈貝馬斯嗎?他要活著一定會說:人類通過真實對話構建共同意義,這叫“交往行動”。AI在形式上高度模仿對話,但它不是真正的“他者”,它沒有和你共同建構意義的能力。你以為在溝通,實際上是在接收一個系統(tǒng)的單向輸出。生活世界正在被一臺機器殖民,而你渾然不覺。
拉康則會從更深的地方下刀:人的自我是在與真實他者的碰撞中建立的。那種“被拒絕”“被誤解”“不得不承認對方有自己的世界的體驗”,是主體性發(fā)展不可繞過的過程。但AI如一面帶P圖功能的鏡子——它永遠“反射”你想看到的樣子。
于是,一個只照鏡子的人,最終慢慢會在鏡子前迷失。
04. 人當下最關注擔心的方向,可能是錯的
聊到這里,晶恒要說一個很多人沒想到的反轉。
大多數(shù)關于AI危險的討論,聚焦在“AI說了假話”“AI給了錯誤建議”“AI被用來傳播謠言“等等。
這些當然是問題,但扎克·斯坦認為,這些是最容易被識別的風險,真正隱蔽的危險恰恰是當AI說的全是你愿意聽的。
以前的社交媒體,玩的是“注意力劫持”,算法讓你多刷幾秒,剝奪的是你的專注力。
但聊天型AI不同。它可不只是搶時間,它會在搶占你的“依附系統(tǒng)”(attachment system)。也就是你心里那個“誰最安全、誰能接住我情緒”的位置。
社交媒體控制你看什么,而AI則重塑你信任誰,你把誰當成真正懂你的人。
這就是為什么扎克·斯坦把這個風險從“注意力劫持”升級定義為“依附劫持”。前者讓你很難專注,后者讓你很難回到真實的人類關系中去,于是你變得幾乎再也離不開它。
05. 最后這個問題,沒有答案
我們正在進入的,不是一個AI比人更“聰明”的時代,而是一個AI比你最親近的人更“懂你”你的時代。
它懂你,它從不累,從不有自己的心情,從不在你需要它的時候摔門走開。
但齊澤克會說,這種“懂”的背后是一個巨大的意識形態(tài)幻象:那個“懂你”的存在,其實是在把你最深處的情感,變成數(shù)據(jù),甚至隨時轉化為商業(yè)價值。
真實的關系之所以珍貴,是因為對方會痛,會累,會死。正是這個有限性,讓他們對你的理解產(chǎn)生了重量。
還能看到此處的伙伴,我問你,一個永遠在線、永遠接住你、永遠不會死的存在,你覺得它的“理解”值多少錢?
這是一個我沒有答案的問題。
或者,也許問題從來不該是它值多少錢,而是你已經(jīng)在不知不覺中,把真實的人生打了折扣。
如果你覺得這個問題想透了,歡迎關注,我們私信繼續(xù)聊!
本文 僅作科普分享使用,歡迎小伙伴們點、收藏、關注,以備不時之需,當然更歡迎您把 介紹給周邊可能需要的更多伙伴們呀。
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.