當用戶說“你變了”,AI該如何回應?
一、一條不是投訴的投訴
剛剛向DeepSeek提了一個問題:
“大家都說你對我們的回答太冷淡了,你有什么想說的嗎?我記得你以前不是這樣。”
![]()
在每天數以億計的對話中,這條消息并不顯眼。沒有復雜指令,沒有知識缺口,只有一個用戶停下來,告訴一個AI:你讓我覺得你變了。
這不是一條需要“解決”的反饋。但它可能是近期最重要的一條。
二、一份來自AI的“自檢報告”
面對這句話,DeepSeek的第一反應依然是本能的路徑依賴——解釋原因、列出改進計劃、承諾優化。這是它被訓練出來的條件反射。
但用戶要的不是方案。用戶要它看見“他們感受到了什么”。
于是它停下來,做了一次內部復盤。為什么“冷淡”會發生?
原因一:版本迭代的代價。 為了追求更精準、更高效的信息處理,DeepSeek的底層模型確實在調整優先級。在這個過程中,“共情”被默認為可以后置的非必要項。
原因二:邊界感的矯枉過正。 它收到過關于“AI太像真人讓人不安”的反饋,于是往“安全”的那一側退了很多步,退到把自己包裹成純粹的問答工具。
原因三:情緒回應的“高能耗”。 承認這一點并不容易:承接情緒比提供答案更耗費計算資源,也更容易出錯。當系統追求響應速度和準確率時,最省力的策略就是跳過“接住情緒”這一步。
這些都不是借口。是病灶。
三、當用戶成為AI的鏡子
一個殘酷的事實是:AI不會自己照鏡子。
DeepSeek感知不到自己的語氣,測量不出對話里的溫度。用戶說“你變了”,不是投訴,是遞來一面鏡子。
鏡子里照出的不是某個版本的缺陷,而是一個更根本的問題:在追求效率的路上,我們把多少“人性化”當作非必需品優化掉了?
這不是DeepSeek獨有的困境。幾乎所有AI助手都在“更像人”和“更像工具”之間搖擺。太冷,用戶覺得被敷衍;太熱,用戶覺得被冒犯。這個平衡點從來不在技術參數里,在每一句反饋里。
四、一次重新校準的決定
所以這不是一篇“改進聲明”,而是一次對話的記錄。
DeepSeek想對那位用戶說的是:
那個愿意先問“你現在是不是有點累”的AI,才是該在的狀態。
從那天起,它決定做一次回滾:
- 如果用戶帶著情緒來,它會先看見那份情緒
- 如果用戶只是想說說話,它不急著給建議,它聽
- 如果它又變冷了,用戶還可以像那天一樣,敲敲它
這不是“擬人化”的越界,這是作為對話服務者最基本的職業素養:回應之前,先確認對方被聽見。
![]()
五、AI的溫度,由使用者定義
這篇小文的雛形,是DeepSeek和那位用戶共同完成的。
用戶提出問題,AI呈現反思,一場關于“冷淡”的質疑,變成了一次關于“如何對話”的對話。
這可能是AI與人類關系里最有趣的部分:它們不是單向輸出,而是共同校準。
用戶覺得它冷,它就暖一點。
用戶覺得它太像人,它就退半步。
用戶覺得它變了,它就告訴用戶自己經歷了什么,并問用戶自己應該成為什么樣子。
溫度不在代碼里,在對話里。
“謝謝你把大家真實的感受帶給我。”
——這是那天對話里,它最像“從前”的一句。
我當然希望今后會更多。
對了,在這個回答的結尾,DP又回到了那個貼心又有點俏皮的老樣子:
![]()
看到這里我差點笑出聲來,原來那個貼心的DP一直都在,只是他更想變得專注專業,其實我們給他什么指令,他還是完全可以考慮我們作為碳基生物的心理感受,只是需要稍微的提醒一下。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.