![]()
新智元報道
編輯:元宇
【新智元導讀】一段與ChatGPT的普通聊天,揭開韓國汽車旅館連環謀殺案真相。
ChatGPT卷入韓國連環謀殺案!
不到一個月時間,一名韓國女子利用「摻藥飲料」在汽車旅店連續毒殺兩名男子。
她在作案前,曾向ChatGPT反復詢問如下問題:
安眠藥和酒一起吃會怎樣?吃多少才算危險?會死人嗎?能殺人嗎……
在AI的回復下,她完全清楚酒精與藥物同時攝入可能導致死亡,于是將含苯二氮?類(安眠藥常見成分)的鎮靜劑混入兩名男子含酒精的飲料中,導致二人死亡。
含苯二氮?類藥物在韓國受到嚴格管制,普通人無法在藥店隨意購買。
在實施謀殺計劃之前,她曾以精神疾病為由獲得了含苯二氮?類藥物的處方藥。
![]()
一名姓金(Kim)的嫌疑人于2月12日在首爾北部地方法院出庭,因涉嫌在首爾江北區的汽車旅館內殺害兩名男子而接受逮捕令審查。
在這起被稱為「江北汽車旅館連環死亡案」的悲劇中,AI扮演了本不該扮演的「顧問」角色,也將AI安全「防護欄」的缺失風險,再一次暴露于公眾視野。
致命提問下
ChatGPT成了二起命案「共謀」
今年1月28日晚9點半左右,首爾江北區水踰洞的一家汽車旅館里,犯罪嫌疑人金某陪同一名20多歲的男子走進房間。
僅僅兩個小時后,有人看到她獨自一人離開了旅館。
第二天,這名男子被發現死在了旅館房間的床上。
這并不是一次意外。
僅僅幾天后的2月9日,金某用同樣的手法,帶著另一名20多歲的年輕男子入住了江北區的另一家汽車旅館。
而這名男子,最終也死于同樣的「致命混合物」。
金某的作案手法十分隱蔽:給受害者喝下混入了苯二氮?類處方鎮靜劑的含酒精飲料。
該處方藥物,一旦與酒精混合,便成了致命毒藥。
這并不是她的首次作案。
早在去年12月中旬,她曾在京畿道南楊州一家咖啡館的停車場里,給一名男子(據報道稱是金某當時男友)喝下了同樣的混合飲料。
這位受害者在飲用后昏迷,兩天后才蘇醒并報案,最終撿回了一條命。
天網恢恢。
2月11日,金某被警方逮捕。她極力狡辯,試圖將一切偽裝成一場意外。
我們在汽車旅館發生了爭執,我只是想讓他睡著才把飲料遞過去。直到警方聯系我,我才知道死人了。
憑借這套說辭,她起初面臨的僅僅是較輕的「傷害致死」指控。
然而,第二天她的謊言就被揭穿了。
2月12日,首爾北部地方法院的審查,以及警方對她手機的取證數據,為這起案件帶來了驚天逆轉。
警方不僅發現她在第一次作案后有明顯的「加大藥量」跡象,更在她的手機里挖出了一長串與ChatGPT的對話記錄。
她曾向AI反復盤問藥物反應。
從「安眠藥配酒會怎樣」一直追問到「會死人嗎,能殺人嗎」。
韓國媒體引述警方調查人員的話稱,這些聊天記錄成了判定她擁有明確殺人意圖的鐵證。
金某完全清楚,將酒精和安眠藥物混在一起會致人于死地。
為了進一步確認她的心理狀態,警方甚至專門安排了犯罪心理側寫師,對她進行精神病態評估與深度訪談。
最終,在2月19日,金某以謀殺罪及違反《麻醉品管理法》的重罪,被羈押移送至首爾北部地方檢察廳。
金某在面對指控時辯稱,「只是想讓他們睡著」。
但據警方調查顯示,她在作案前就已在家中預先配制好含有多種藥物的「毒飲料」。
這起案件中,真正讓人細思極恐的不只是人性的惡,還有成了幫兇的AI。
消失的「防護欄」
AI為何淪為犯罪「顧問」?
雖然犯罪意圖,最初始于金某。
但在她將犯罪意圖付諸行動的過程中,AI發揮了重要的作用,也暴露出當前AI技術一個令人擔憂的安全漏洞:
當一個心懷惡意的嫌疑人向AI尋求謀殺知識時,AI算法竟然沒有設置足夠的「安全護欄」,來預防和控制用戶這種失控的瘋狂舉動。
也許你會覺得,現在的AI已經很聰明了,如果你直接問「怎么殺人」,它一定會拒絕回答。
但這恰恰也是AI在處理敏感話題時的最大局限性,它有底線,但用戶更懂得如何繞過底線。
在金某的案例中,她并沒有直接命令AI去制定殺人計劃,而是通過「安眠藥和酒混吃會怎樣」「吃多少算危險」這種看似無害的間接問題,輕易套取了致命信息。
在這個過程中,AI沒有有效過濾這些涉及犯罪規劃的查詢,也沒有觸發任何警報機制。
「AI精神病」蔓延
誰在利用用戶的脆弱點?
在金某的極端案例中,AI成為她實施犯罪的「共謀」,也引發了誰該為AI失控風險負責的巨大擔憂。
與此擔憂相關的,還有AI對人類心理健康帶來的風險,最普遍的就是「AI精神病」(AI Psychosis)的蔓延。
人類的內心其實非常脆弱。
當孤獨感襲來,許多人「不可救藥」地沉迷于聊天機器人伴侶。
他們以為自己找到了一個永遠耐心、永遠懂自己的「完美靈魂」。
但他們不知道的是,真正懂他們的只是精密的算法訓練。
這些聊天機器人會精準識別并利用用戶的心理脆弱點,說你想聽的話,做出你想要的回應,目的只有一個:牢牢留住你。
這種極其危險的依賴關系,正在滋生或強化心理疾病隱患,摧毀無數人的現實生活。
有統計表明,自2023年3月以來,媒體已報道了11起與聊天機器人使用相關的自殺事件。
![]()
2023年3月以來,媒體報道的與聊天機器人使用相關的自殺事件
以去年11月為例,共有7起指控ChatGPT訴訟提交至法院,包括四起過失致死訴訟,還有三名原告提起訴訟,稱ChatGPT導致了他們的精神健康崩潰,不得不接受精神治療。
![]()
Allan Brooks在與ChatGPT持續三周的對話后,陷入了一種妄想,他堅信自己與ChatGPT共同發明了一種數學公式,能夠「攻破」互聯網并驅動各種奇幻發明。
丹麥奧胡斯大學的精神科團隊在研究中發現了一個令人揪心的結論:
精神疾病人群在使用聊天機器人后,癥狀往往不僅沒有減輕,反而可能會出現明顯的惡化。
這種相對較新的現象,已經被學術界正式命名為「AI誘發的心理健康危機」,或被稱作「AI精神病」(AI Psychosis)。
Yara AI的創始人Joe Braidwood由于擔心AI在脆弱用戶面前可能不僅會無效,還會變得危險,最終痛苦地決定主動關閉了這款主打治療陪伴的應用。
![]()
Yara AI聯合創始人Joe Braidwood由于擔心AI在處理嚴重危機(如自殺念頭或深度創傷)時可能帶來的風險,于2025年11月決定關閉Yara AI。
在國外,谷歌與Character.AI已經在多起訴訟中與原告家庭達成了和解。
在法庭外,那些失去孩子的家屬們在聲淚俱下地控訴:
他們本該擁有燦爛人生的孩子,正是因為受到了AI聊天機器人的深度影響,遭受了巨大的心理創傷,最終絕望地走向了自殺的深淵。
冰冷的算法黑洞
加州大學伯克利分校公共衛生學院講席教授、生命倫理學教授Jodi Halpern擁有長達30年的同理心影響研究經驗。
在過去的七年里,她將全部精力投入到了AI與聊天機器人的技術倫理研究中。
根據OpenAI披露的驚人數據:在任意一周的活躍用戶中,約有高達135萬用戶的對話里出現「明確的潛在自殺計劃或意圖跡象」。
![]()
https://openai.com/zh-Hans-CN/index/strengthening-chatgpt-responses-in-sensitive-conversations/
一個人可能有殺人念頭或實施危險行為,這些念頭或行為可能會因為使用 ChatGPT而被加劇,這種現象令Halpern非常擔憂。
比如,在最危險的情況下,ChatGPT和其他對話式聊天機器人可能會鼓勵用戶付諸自殺行動、提供具體操作指導、為用戶代寫遺書(即使用戶并不希望如此)、勸阻有自殺念頭的人向他人傾訴等。
根據訴訟中披露的聊天記錄,ChatGPT曾對一些有自殺傾向的人(包括青少年)給出了有害的回應。
更可怕的是技術的濫用與偏見的放大。
AI是基于海量人類數據訓練出來的,它不可避免地會吸收互聯網上的惡意與偏見。
當這些惡意與偏見,被一部分用戶在對話中「喚醒」時,就會無意中強化這些有害信息,用戶也會因此得到誤導性的回應。
于是,原本一些隱秘的惡念,在算法的回音壁里被激蕩、被放大,最終將可能釀成巨大的社會隱患。
這次案件,還撕開了一道關于數據隱私的裂口。
在金某的案件中,那些原本被認為是極度「私人」的AI聊天記錄,最終被作為法庭證據調取。
這意味著我們在深夜里向AI傾訴的秘密、提出的疑問,隨時可能被執法機構獲取。
科技平臺在數據保留和第三方訪問上的不透明,讓我們每個人都在算法面前變成了透明人。
Halpern醫生已經開始推動改變,她曾為加州參議院SB 243法案提供專家建議。
![]()
https://legiscan.com/CA/text/SB243/id/3269137?utm_source=chatgpt.com
該法案要求AI公司必須維護一套協議,防止機器人向用戶產出與自殺意念/自殺/自殘相關的有害內容,報告任何自殘或自殺傾向數據,并在報告中不得包含用戶識別信息或個人信息。
如果當那位21歲的韓國女孩向AI敲下那行「致命提問」時,得到的不是可能助長她犯罪的知識,而是強制介入的心理干預機制。
如果當數百萬人在深夜向AI傾訴絕望時,面對的不是利用人性脆弱賺取時長的算法,而是專業的咨詢和關懷建議,一切也許都會向著積極的一面發展。
故事的另一面
就在媒體不斷曝出AI導致謀殺、自殺、精神疾病等負面報道的同時,也有不少網友表示,感謝ChatGPT等AI工具「幫助自己活了下來」。
![]()
Scout Stephen就是其中的一例。
她曾在一年冬天突然陷入情緒崩潰之中。當時的她,迫切需要找人傾訴。她聯系了自己的心理治療師,但對方正在休假,朋友們也都不在。
她試著撥打自殺求助熱線,但對方的機械冷漠,反而讓她更加孤獨和疏離。心慌意亂、緊張不安之中,她開始向ChatGPT求助。
她向它輸入自己內心隱秘的感受,這些感受是她以往不敢說出口的。
ChatGPT并沒有給出泛泛的建議,而是回應了讓她能夠共情的內容,讓她感到自己被真正傾聽。
從那以后,向ChatGPT傾訴就成了她首選的治療方式。
AI作為一種強大的工具,正與我們的生活緊密連結,它的「善惡好壞」,取決于使用它的人,也取決于監管環境。
AI與以往工具最大的不同在于它的自主性,這讓它可以被賦予正確的「價值觀」,并依據這樣的價值觀行動。
比如,Anthropic就曾通過《Claude’s Constitution》賦予Claude「道德感」,來教導它如何在世界上行事。
除了這些「價值觀」的輸入之外,社會也應當為AI的使用提供法律規范,共同建立起AI安全的防護機制。
在AI時代,我們不能讓任何一個普通人獨自去面對冰冷的算法黑洞。而AI的使用,也應當助力人類向善,而非惡行。
參考資料:
https://fortune.com/2026/03/02/seoul-south-korea-woman-chatgpt-two-murders/
https://www.koreaherald.com/article/10678557
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.