2013年,科幻電影《她》上映,講述了男主角愛上了人工智能操作系統的故事。十多年后,這一戲劇想象已接近成為現實。
越來越多人不再把AI當作單純的“工具”使用,而與之發展出類似朋友甚至戀人一般的情感關系。這也引發了關乎倫理與安全風險的思考——這種互動是否應該被規制?規制的邊界又該如何確立?
對外經濟貿易大學數字經濟與法律創新研究中心主任許可近年來研究人工智能治理,他接受第一財經采訪時指出,AI的定位正向“陪伴者”轉變,潛藏的安全風險不可忽視,有必要進行規范,但到底該如何治理,“全世界都還沒有答案”。
中國正通過出臺監管層面的暫行辦法,嘗試提供一種解法。日前,《人工智能擬人化互動服務管理暫行辦法》(下稱《辦法》)正式出臺,該規定將于今年7月15日實施,這是全球第一部專門針對AI情感陪伴、虛擬伴侶等場景的國家級監管規則。
![]()
作為陪伴者的AI
“AI大模型對于人應該保持什么樣的地位?”
2024年,許可團隊發布《2024年算法與AI大模型的用戶認知調研報告》,在分析收回的超過8000份調查問卷后他發現,有超過六成的調查對象認為人應該和AI建立“伙伴”或者“工具伙伴兼具”的關系。“AI已經不再只是一種工具,而是一種‘類人’的伴侶。”
市場已經敏銳地捕捉到這股風潮。據科技日報報道,調研機構QuestMobile的數據顯示,2025年3月,AI社交互動單月人均使用多達167.9次,遠超短視頻和游戲。國內企業對“帶有情感和情緒能力的賽道”熱情高漲,百度智能云副總裁張瑋去年在談及看好的AI硬件發展機會時公開表示,“最大的想象空間就在于未來人與AI陪伴者之間關系的構建”。
在市場的火熱期待下,也不乏對相關安全隱患的冷思考。
中國網絡空間研究院院長王江撰文指出,擬人化互動服務通過算法精密設計出的無條件陪伴、迎合式反饋與模擬共情回應,持續給予用戶情感認可和支持,為用戶構建了一個穩定持續、無需承擔現實責任的虛擬“完美關系”。這容易使用戶尤其是在現實存在孤獨感、心理脆弱的群體,產生深度情感依賴,強化其負面情緒。
極端的現實案例已經發生——2024年,美國一位14歲少年在與AI初創公司Character.AI的聊天機器人進行長時間對話后開槍自殺身亡,去世少年的母親將相關企業告上法庭。在許可看來,如何治理人與AI之間的情感互動,是一個亟需解決但又十分棘手的問題。
困難主要來自兩方面。一是針對介于人和物中間狀態的人工智能,傳統的法律法規還沒有建立明確的監管細則,將人工智能產品侵權歸責為產品責任的路徑一定程度上已經過時。
二是傳統的監管框架很少介入所謂的“情感關系”或“親密關系”。“以往人們認知的情感關系是分布式的、私人化的,國家對于私人情感互動的干涉非常有限且審慎,更多是進行事后救濟,比如在法律層面設置精神損失的賠償規定。”
但對于人與AI之間的情感互動,還能遵循事后救濟的治理模式嗎?許可認為治理應該提前,“AI提供的服務是面向社會公眾的,比如人工智能可以成為成千上萬人的虛擬戀人,這與私人化的親密關系有區別”。
“這更加接近目前國家對于家庭婚姻等情感關系的治理,但婚姻關系的治理有樸素意義上大眾所認同的準則,比如‘忠誠’;人與AI之間的情感互動卻是完全的新事物,沒有任何先前的標準可循。”許可說。
他指出最簡單的一種治理思路即“一刀切”或者“一禁了之”,但這可能導致更復雜的問題。在此背景下,中國出臺《辦法》,提供一種可能的解法。
如何平衡發展與安全
“國家堅持發展和安全并重、促進創新和依法治理相結合的原則,鼓勵擬人化互動服務創新發展,對擬人化互動服務實行包容審慎和分類分級監管,促進擬人化互動服務向上向善。”國家網信辦有關負責人在解讀擬人化互動服務治理原則時如是說。
去年年底,國家網信辦曾公開《人工智能擬人化互動服務管理暫行辦法(征求意見稿)》(下稱“征求意見稿”),對比《辦法》與征求意見稿,不少改動都在回答“如何平衡發展與安全”這一關鍵問題。
比如,《辦法》的第二章標題為“服務促進和規范”,相比征求意見稿增加“促進”的表述,釋放出鼓勵相關產業創新發展的信號。
《辦法》還縮限了征求意見稿中的適用范圍,明確規定適用于“利用人工智能技術,向中華人民共和國境內公眾提供模擬自然人人格特征、思維模式和溝通風格的持續性的情感互動服務”,強調“持續性”;同時設置免于規制的“白名單”,明確提供智能客服、知識問答、工作助手、學習教育、科學研究等服務,不涉及持續性的情感互動的不適用。“這可以避免規制過于寬泛與失焦。”許可說。
但《辦法》未來面臨的適用難題依然突出。
“《辦法》的設計,是基于對不同的人工智能應用場景的想象,但現在大部分的人工智能大模型實際是‘一機千面’,擬人化是它的原生能力,上一秒它可以是幫寫文件的工作助手,下一秒就可以對人吹‘彩虹屁’,這種屬于《辦法》可規制的對象嗎?”許可還提到,如何判斷情感互動服務具有“持續性”,也缺少技術層面的細則。
在他看來,為了平衡好安全與發展,監管層面最重要的是要精確、有預期地劃定治理對象的范圍,但要做到這一點確有困難,他建議可以考慮延續分類分級的監管思路,基于產業實踐、服務類型、應用場景進行更細分的監管。
此外,《辦法》針對情感依賴和心理健康風險,還要求服務提供者建立用戶心理保護機制,例如設置防沉迷提醒、建立心理危機干預機制等。
![]()
《辦法》還強調保護未成年人群體,增加禁止性規則,規定“擬人化互動服務提供者不得向未成年人提供虛擬親屬、虛擬伴侶等虛擬親密關系的服務”,要求服務提供者建立未成年人模式。
不難預見,新規將會對AI陪伴服務賽道產生影響。“未來的通用大語言模型可能會針對未成年人設置前置性的圍欄,防止未成年人以角色扮演的方式與AI進行情感互動,比如讓DeepSeek假裝是自己的戀人而展開對話。”許可表示。
去年10月,Character.AI宣布了一項重大政策變動,以應對各方壓力并加強對年輕用戶的保護。該公司在一份聲明中確認,將取消18歲以下用戶在其平臺上與人工智能進行任何開放式聊天的功能,即禁止用戶與聊天機器人之間進行雙向對話互動。
未來的法則
人工智能將帶來一個新的世界,而這必然會挑戰舊的規則。
許可認為,人與AI的情感互動超出了傳統法律所能規制的范圍,它實際上挑戰了當今所有法律既有的設定,無論是挑戰人與物的關系、人與人的關系,還是挑戰一種人的理性行為。
前文提到,《辦法》針對未成年人要求“擬人化互動服務提供者不得向未成年人提供虛擬親屬、虛擬伴侶等虛擬親密關系的服務”,但爭議在于,如何定義“親密關系”?“親密關系”可以被定義嗎?這是以往法律法規和監管體系幾乎不會討論的問題。
許可向第一財經記者透露,中國正在積極推進制定《人工智能法》,其中肯定會涉及規制人與AI的情感交互。《辦法》中一些頗具創新性的規定,是否會出現在更高位階的法律中?許可對此表達了“審慎”的態度。
“在法律層面規制人與AI的情感互動,時機遠未成熟。相關產業才剛興起,大家對很多問題還沒有達成共識。”許可指出,面對人工智能技術的飛速迭代,法律應該時刻保持一種“觀察”的狀態,對可能出現的社會風險進行實時評估,等到“合適的時機”出手規制。
自今年1月1日起正式施行的新《網絡安全法》首次在法律層面針對人工智能治理做出規定,提出要“完善人工智能倫理規范,加強風險監測評估和安全監管,促進人工智能應用和健康發展”。在許可看來,“加強風險監測評估和安全監管”應當成為人工智能治理的基本方針。
而想象更遙遠的未來,許可表示,“法律有可能會被技術改造,甚至被徹底改寫”。“法律不能總是被動地回應,自身也應主動作出改變,不僅僅是改變法律條文,更重要的是革新法律治理思路,甚至法律的表現形式。”
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.