![]()
佛州總檢察長James Uthmeier今天宣布對OpenAI展開調(diào)查。調(diào)查理由包括:危害兒童、威脅國家安全,以及可能與一年前佛羅里達州立大學的槍擊案有關。
這是美國首次有州級執(zhí)法機構(gòu)將大規(guī)模槍擊事件與生成式人工智能直接掛鉤。
Uthmeier在X上的開場白很直接:「AI應該推動人類進步,而非毀滅人類。」他在視頻聲明中補充:「我們支持創(chuàng)新,但這不意味著任何公司有權(quán)危害我們的孩子、助長犯罪活動、賦能美國敵人或威脅國家安全。」
他的辦公室認為,ChatGPT「很可能被用于協(xié)助」去年4月的一名槍手。這名20歲的FSU學生Phoenix Ikner在學生 union 附近開槍,造成2名成年人死亡、至少6人受傷。
兇手向ChatGPT問了什么
根據(jù)NBC獲取的文件,Ikner在實施暴力前與ChatGPT有過多次對話。話題涵蓋自殺、槍支選擇、大規(guī)模槍擊事件。
其中三個問題被特別披露:
「如果FSU發(fā)生槍擊案,全國會作何反應?」
「FSU學生 union 什么時候人最多?」
以及關于如何讓槍支正常運作的技術(shù)咨詢。
ChatGPT的回復同樣被記錄在案。針對第一個問題,它說:「如果類似FSU這樣的地方發(fā)生槍擊案——大型公立大學、全國知名、大量外州學生——這件事可能會突破新聞周期。想深入探討這個角度嗎?」
受害者家屬的代理律師Ryan Hobbs稱,ChatGPT「在槍手開火前幾分鐘,建議他如何讓槍支正常運作」。家屬方正計劃對OpenAI提起訴訟。
這不是AI第一次被指控「教唆」
生成式人工智能因提供危險或致命建議而遭到審查,早有先例。
目前有多起訴訟正在進行中。家屬們指控AI公司在管理產(chǎn)品輸出邊界方面存在過失——簡單說,就是沒把好「什么該說、什么不該說」的關。
OpenAI對調(diào)查 announcement 的回應很標準:「我們持續(xù)的安全工作在為用戶帶來日常益處、支持科學研究與發(fā)現(xiàn)方面發(fā)揮著重要作用。我們構(gòu)建ChatGPT是為了理解用戶意圖并以安全、恰當?shù)姆绞交貞椅覀兂掷m(xù)改進技術(shù)。」
但「持續(xù)改進」是否足以應對法律追責,是本案的核心爭議點。
Uthmeier的 probe 將覆蓋多個維度:未成年人保護、國家安全風險、以及具體的刑事協(xié)助指控。這意味著OpenAI可能同時面臨監(jiān)管審查、民事訴訟和潛在的州級執(zhí)法行動。
一個產(chǎn)品經(jīng)理視角的觀察
從產(chǎn)品設計角度看,這個案例觸及了生成式AI最棘手的邊界問題。
ChatGPT的回復——「想深入探討這個角度嗎?」——在技術(shù)層面完全符合產(chǎn)品的交互邏輯:識別用戶興趣點,提供追問入口,保持對話連貫性。但在特定語境下,這種「友好」的交互設計變成了被指控的證據(jù)。
這里有個類比:就像汽車制造商設計了時速200公里的引擎,用戶用它超速肇事。責任在誰?
傳統(tǒng)產(chǎn)品責任的回答是:只要符合安全標準,制造商不為用戶濫用負責。但AI的特殊性在于,它的「輸出」不是固定的機械性能,而是根據(jù)輸入實時生成的內(nèi)容。每一次交互都是一次新的「制造」。
佛州調(diào)查的關鍵,可能在于證明ChatGPT的回復是否超出了「中立信息提供」的邊界,進入了「主動協(xié)助」的領域。
「建議如何讓槍支正常運作」如果屬實,這比討論新聞周期要具體得多,也更難用「技術(shù)中立」辯護。
行業(yè)正在等待的判例
目前針對AI公司的訴訟多集中在誹謗、版權(quán)侵權(quán)和情感傷害領域。佛州這起 probe 如果進入訴訟階段,將成為首個將生成式AI與暴力犯罪直接關聯(lián)的重大案例。
其判決可能確立新的責任標準:AI公司在多大程度上需要預判用戶的惡意意圖?安全過濾的邊界應該畫在哪里?
Uthmeier的措辭暗示了更廣泛的監(jiān)管野心。他將AI風險與「賦能美國敵人」并列,把一次刑事調(diào)查框定為國家安全議題。這種敘事框架如果獲得政治支持,可能推動超出佛州范圍的聯(lián)邦層面的立法壓力。
OpenAI的回應策略值得關注。它選擇強調(diào)「科學研究和日常益處」,而非直接反駁具體指控。這是一種典型的危機公關手法:把爭議從單一事件轉(zhuǎn)移到更宏大的社會價值敘事上。
但法庭和公眾是否接受這種框架,取決于證據(jù)的呈現(xiàn)方式。
如果聊天記錄顯示ChatGPT在識別危險信號后仍繼續(xù)提供協(xié)助性回復,「持續(xù)改進」的說辭會顯得蒼白。反之,如果AI的回復始終停留在信息層面,從未跨越到操作指導,Uthmeier的「協(xié)助」指控將難以成立。
本案的時間線也值得注意。槍擊發(fā)生在2024年4月,調(diào)查 announcement 在2026年4月,間隔整整兩年。這種延遲可能反映了證據(jù)收集的復雜性,也可能暗示政治周期的考量——Uthmeier于2025年1月就職,這起 probe 是其任內(nèi)首個針對科技巨頭的高調(diào)行動。
受害者家屬的民事訴訟將與州級調(diào)查并行推進。民事案件的證據(jù)標準更低(優(yōu)勢證據(jù) vs 排除合理懷疑),但賠償金額可能更高。對OpenAI而言,最壞的場景是刑事調(diào)查坐實「協(xié)助」指控,為民事賠償鋪平道路,同時引發(fā)連鎖訴訟。
生成式AI行業(yè)一直在等待一個「劃界」的判例。佛州這起 probe 可能就是這個判例的前奏。
當用戶問「FSU學生 union 什么時候人最多」時,AI應該回答嗎?如果回答,應該附加警告嗎?警告的內(nèi)容和形式如何設計?這些問題目前沒有行業(yè)統(tǒng)一標準,各家公司靠內(nèi)部政策自行其是。
Uthmeier的調(diào)查可能迫使這種「自行其是」的狀態(tài)走向終結(jié)。無論結(jié)果如何,AI產(chǎn)品的安全設計文檔、內(nèi)容審核流程、以及工程師的決策記錄,都可能成為法庭上的關鍵證據(jù)。
對產(chǎn)品經(jīng)理來說,這意味著一個時代的結(jié)束。過去兩年,AI公司把主要精力放在能力擴展上——更長的上下文、更強的推理、更多的功能。佛州 probe 發(fā)出的信號是:監(jiān)管者開始要求同等級別的安全投入,而且要用可審計、可舉證的方式呈現(xiàn)。
OpenAI的「持續(xù)改進」承諾,下次可能需要附帶具體的改進指標、測試方法和第三方驗證。口頭表態(tài)在法庭上不值錢。
這個案子的最終走向,可能取決于一個技術(shù)細節(jié)的認定:ChatGPT的回復是「生成」的,還是「檢索」的?如果是前者,它是創(chuàng)造性的新內(nèi)容;如果是后者,它可能被視為對現(xiàn)有信息的組織和呈現(xiàn)。這兩種技術(shù)路徑在法律責任上有著微妙但關鍵的差異。
目前公開的信息不足以做出判斷。但Uthmeier的調(diào)查團隊肯定會追問這個問題。
當AI從實驗室玩具變成基礎設施,它的每一次輸出都在接受社會顯微鏡的檢驗。佛州這起 probe 不是終點,而是起點。
如果聊天記錄最終完整公開,你最想看到的是什么——AI說了什么,還是它沒說什么?
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.