日前,斯坦福大學 HAI 研究團隊在分析了美國最大的 6 家AI 公司隱私政策后,發布了一篇論文《用戶隱私與大語言模型:前沿開發者隱私政策分析》。
![]()
這 6 家公司是亞馬遜、谷歌、Meta、Anthropic、 微軟和 OpenAI。
研究對象為 28 份隱私文件,不僅包括主要的隱私政策,還包括所有鏈接的子政策、常見問題解答和可通過聊天界面訪問的指導頁面等。
他們根據美國最全面的隱私法《加州消費者隱私法案》,對這些文件進行了評估。
結果比你想象的還要糟糕。
首先,幾乎所有公司都會收集你的聊天數據,并默認將其用于模型訓練。
有些公司甚至會無限期地保留你的對話記錄,沒有過期時間,也沒有自動刪除功能。你的數據就那樣永遠留在那里,為未來版本的模型提供數據。
甚至,有些公司會讓員工在培訓過程中閱讀你的聊天記錄——不是匿名摘要,而是你真實的對話內容。
但接下來,才是真正危險的地方。
對于像谷歌、Meta、微軟和亞馬遜這樣同時運營搜索引擎、社交媒體平臺、電子商務網站和云服務的公司來說,你們的 AI 對話并不會局限于聊天機器人內部。
這些信息會與這些公司已經掌握的關于你的所有其他信息,合并在一起。
你的搜索歷史記錄、你的購買數據、你的社交媒體活動,還有,你上傳的文件……
研究人員描述了一個值得深思的真實場景:你向 AI 聊天機器人詢問有益心臟健康的晚餐食譜,模型推斷你可能患有心血管疾病。
這一分類信息會傳遞到公司更廣泛的生態系統中。于是,你開始看到各種藥物廣告。
這些信息最終還會進入保險數據庫。隨著時間的推移,其影響會不斷累積。
比如,當你分享一個關于晚餐的問題,系統據此建立一個健康檔案。
當你查看兒童數據時,情況會變得更糟。
這 6 家公司中有 4 家,似乎在其模型訓練中使用了兒童聊天數據。
比如,谷歌宣布將在獲得用戶明確同意的情況下,使用青少年數據進行模型訓練。
Anthropic 聲稱,不收集兒童數據,但也不驗證用戶年齡。
微軟表示會收集 18 歲以下用戶的數據,但聲稱不會將其用于模型訓練。
兒童不具備法律上的同意能力,而大多數父母對此毫不知情。
![]()
退出機制是另一個錯綜復雜的問題。
有些公司提供退出選項,有些則不提供。
提供退出選項的公司,往往把選項藏在設置頁面的深處,大多數用戶根本找不到。
隱私政策本身也充斥著晦澀難懂的法律術語,就連專門研究這類文件的研究人員都覺得難以理解。
而這正是沒人關注的結構性問題。
美國目前尚無全面的聯邦隱私法來規范人工智能公司如何處理聊天數據,而各州法律的碎片化導致存在巨大漏洞。
研究人員特別呼吁采取三項措施:強制性聯邦監管、模型訓練采用用戶主動選擇加入(而非選擇退出)的方式,以及在聊天輸入進入訓練流程之前自動過濾個人信息。
但這些目前都不存在。
令人不安的事實是,每次你在 ChatGPT、Gemini、Claude、Meta AI、Copilot 或 Alexa 中輸入內容時,你都在為訓練數據集做出貢獻。
你不是用戶,你就是燃料本身,而這些 AI公司還在竭盡所能地讓你欲罷不能。
論文鏈接
https://arxiv.org/html/2509.05382v1?webview_progress_bar=1&push_animated=1&show_loading=0&theme=light
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.