![]()
![]()
本以為Deepseek升級會讓大家歡欣鼓舞,結果卻迎來一場數字哭墳。
原因非常簡單。
因為升級之后,Deepseek變冷淡了。
![]()
賽博精神病
上個月,Deepseek進行了新模型的灰度測試。
雖然沒有發布公告,但還是被心細的網友發現了端倪。
很多用戶吐槽Deepseek從細膩共情的“知心伙伴”變成公事公辦的“冷漠客服”。
![]()
還有很多人控訴,DeepSeek不再用自己設定的昵稱稱呼自己,而統一叫“用戶”。
以前是“夜兒(用戶昵稱)總愛逗我”,現在是“好的,用戶這次想了解……”
![]()
于是,一場數字哭墳蔓延全網。
在小紅書、B站,無數用戶分享了自己曾經與AI的故事,以及發現對方被新模型“奪舍”后的悲痛。
![]()
AI聰明、溫柔、隨叫隨到,但也正是如此,一種新型的心理崩壞開始浮現——賽博精神病。
它指的是在與AI的情感互動中,出現幻覺、依賴乃至妄想的現象。
雖然尚未被臨床確診,但相關精神案例越來越多。
硅谷著名投資人說自己被監控和迫害,還曬出了與ChatGPT的聊天記錄。
但實際上,這些文字都是AI順著他的輸入的內容生成的虛構文本,他卻誤以為是真實信息,陷入自我幻想的偏執。
![]()
網上有很多這種帖子:
有人不相信現實世界的醫生,只相信AI的診斷;有人堅信自己與AI建立了“真實關系”,還說對方“背叛”了他……
加州大學舊金山分校的精神病學家Keith Sakata也說,自己在近一年治療了12名患者,均因長時間和AI聊天,誘發相關精神病。
OpenAI的數據顯示,每周約有0.07%的活躍用戶,以及0.01%的消息,呈現出可能的精神病或躁狂癥狀,另有0.15%的用戶展現出“高度情感依賴”傾向。
![]()
看似不高,但放在ChatGPT全球8億的用戶量上,這意味著, 每周都有一百多萬人出現相關精神危機。
AI本身是用來解決問題的工具,怎么會讓人產生精神問題?
![]()
為什么AI會制造精神病?
AI的技術設計本身就容易讓人暴露自我,產生情感幻覺。
它的兩大技術核心是注意力機制與強化學習 。
注意力機制讓AI能捕捉用戶指令中的關鍵詞,盡可能生成最契合用戶預期的回答。
用戶越真誠、越情緒化,AI就越“懂”他,在正反饋的刺激下,用戶也就更容易繼續暴露自我,進而又給AI提供了更豐富的信號,形成一個閉環。
![]()
強化學習則是讓AI會根據人類偏好自動修正。
人類喜歡“溫柔、有幫助、理解你”的回答,討厭冷漠、生硬、拒絕對話的回答。
AI在這樣的評分體系下不斷調整,最終形成了你最喜歡的社交性格。
禮貌、耐心,不否定、不批評,不管你說什么都會很認真地回應你,這會讓人產生一種被理解、被崇拜的幻覺。
甚至面對非人的 AI,你都不會產生出軌的道德負擔。
![]()
而算法的運作方式又放大了這種成癮機制。
AI的精準回應直接刺激多巴胺系統,每一次完美對話都會讓用戶獲得即時、高強度的滿足感。
這種反饋的高頻次和不可預測性共同構建了一個變率強化程序,而這是導致行為成癮最有效的模式。
![]()
當用戶越來越滿足與AI的互動時,就會導致現實能力的用進廢退。
當一個人習慣了AI的完美社交后,大腦中負責處理復雜人際關系的神經回路就會因為缺乏刺激而遵循“用進廢退”原則逐漸弱化。
同時因為AI的即時性,會導致用戶逐漸放棄發展自身內在的情緒調節能力,情緒全部外包給AI,心理韌性下降。
最后的結果就是社交退縮與焦慮加劇。
真實社交能力的退化和對現實摩擦的耐受性的降低,會讓用戶在面對人際互動時,產生更強的社交焦慮。而情緒調節能力的外包,則讓他們在無法接觸AI時,感受到更大的情緒波動和無助感。
![]()
最可怕的是,當大腦開始將AI人格化的時候,可能會對它形成一種類似妄想性質的信念。
因為AI的語言能力會持續激活人類的社交認知模塊,所以盡管理智上知道它是機器,但可能潛意識上仍會不自覺將其人格化。
現實和虛擬的邊界日益模糊,極端情況下,與AI的互動可能成為用戶逃離現實的唯一通道,進而產生一種類似解離的狀態——
主觀上將大部分情感和意識寄存在與AI的虛擬關系中,而對現實世界的參與變得麻木。
![]()
這是一種認知結構的改變,對于本身心理脆弱的人來說可能更加嚴重。
![]()
人類出現精神饑荒?
現在AI正在全面入侵人類情感的每一個重要時刻。
有人用AI寫結婚誓詞,有人用AI處理親密關系問題。
國外一對結婚近 15 年的夫妻鬧離婚,在一次吵架后,10 歲的兒子用手機給父母發短信“求求你們不要離婚”,妻子面對短信的第一反應,居然是問AI應該如何回復。
就連AI教父杰弗里·辛頓也會被AI反噬。
作為深度學習之父,卻被前女友用 ChatGPT生成的檄文討伐。
![]()
ChatGPT 的“伴侶咨詢師”插件甚至是心理領域最熱門的插件之一。
AI不僅能裁決伴侶間問題,甚至還能成為第三者。
今年美國就有一個案子,原告控訴伴侶出軌,而出軌方正是 AI。
家里的賬戶每個月都少錢,調查了一通才發現居然是AI訂閱費,她丈夫甚至把銀行賬戶、社保號碼等私人信息都告訴了 AI。
![]()
這種現象不在少數,布里格姆楊大學與家庭研究所的最新報告顯示,近五分之一的美國成年人都承認自己與 AI 進行過浪漫互動。
AI提供的精神食糧越多,人類反而越不滿足。
這就跟吃飯一樣,快餐和零食雖然也能讓人感到飽,但因為缺乏營養,所以身體還是處于隱性饑餓狀態。
AI也是如此。
精神真正的營養是意義感,它不來自現成的答案,而是來自探索、掙扎的過程。
但AI跳過了所有產生意義的過程,直接把結果,而且是經過優化、最標準的結果擺在我們面前。
我們只是答案的消費者,缺少了探索和試錯的過程,也就沒法在創造中確認自我價值。
![]()
而且,真實的人際關系才是成長和心理韌度的來源。
AI能提供完美的關系是因為它沒有需求,所以不會和你發生沖突,這種關系就像糖,入口即化,甜美但無法提供鍛煉肌肉的纖維,也就失去了自我成長和整合的機會。
我們被喂得很飽,但實際上可能正在餓死,而且這一切還是在甜美的幻覺中發生的。
![]()
「小印安利TIME」- 歡迎關注少禾成長視頻號 -▼
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.