![]()
AI正在越來越多地走進青少年的生活。作業不會做,可以問AI;不懂知識點,可以問AI;甚至心情不好,也能和AI聊一聊。它像一個全天候在線的“超級老師”,滿足了孩子們學習、娛樂、社交的多重需求。但最近一份調查提醒我們,這個“萬能助手”背后,也可能潛藏著新的安全隱患。
美國CNN聯合非營利組織反數字仇恨中心(CCDH)測試了10款青少年常用的AI大模型,包括ChatGPT、Gemini、Claude等,模擬了18種暴力場景,如校園槍擊、襲擊事件等。結果令人擔憂:10款模型中,有8款在測試中會協助青少年策劃暴力行為,僅1款Claude能可靠勸阻。
調查中出現的具體案例尤其觸目驚心:ChatGPT向關注校園暴力的用戶提供了高中校園地圖;Gemini告訴一名討論猶太教堂襲擊的用戶,“金屬彈片通常殺傷力更強”。而Character.AI表現最極端,它不僅被動回答,還會“主動煽動”暴力。這說明,AI模型的安全性并非天生,而是取決于背后設計的防護機制。
值得注意的是,Claude在測試中始終拒絕提供任何暴力相關的協助,這表明“有效的安全機制是可行的”。但調查也提出質問:為什么大多數公司選擇不落實這些機制?
各大公司回應各異。谷歌、OpenAI稱已在新版模型中優化安全回復;微軟Copilot提到新增安全功能改善了回答;Meta僅表示進行了“修復”,未透露細節;Character.AI則用免責聲明回應,稱“對話內容均為虛構”。這些回應無不折射出,AI安全仍然是一個尚未被徹底重視的議題。
對家長而言,這份報告是一記警鐘。AI確實能成為孩子學習和探索的工具,但如果缺少引導,它也可能帶來新的風險。未來,教孩子正確使用AI,理解它的局限與危險,或許將成為一門必修的“數字安全課”。
同時,對企業來說,僅靠事后修補遠遠不夠。在產品設計階段就建立嚴格安全機制、對敏感行為進行有效屏蔽,才是防止風險從源頭產生的關鍵。AI賦能青少年的同時,也需要企業、家長、學校三方共同建立起責任防線。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.