3月15日晚,央視3·15晚會曝光AI大模型“投毒”黑產亂象,揭開了不法分子利用GEO(生成式引擎優化)技術操控AI輸出虛假信息的灰色鏈條。
![]()
央視315晚會的調查記者通過多日暗訪,揭開了AI大模型“投毒”的完整灰色產業鏈。這場“投毒”不是簡單的信息篡改,而是一套系統化、規模化的操作,核心主角是一群號稱能“馴服AI”的GEO服務商,他們打著“優化推廣”的幌子,幫商家向豆包、元寶、千問、KIMI、deepseek、文心等AI大模型定向“投喂”虛假信息,實現“操控AI答案”的目的,而這一切,只需要支付相應的費用。
![]()
晚會暗訪顯示,涉事GEO服務商可在短時間內生成虛假內容,批量發布至網絡,誘導AI抓取后優先推薦,甚至讓虛構產品登上AI推薦榜前三。此類行為已覆蓋多款主流AI產品,威脅數億用戶,可能誤導消費決策、傳播虛假醫療和金融信息。
在此背景下,數字經濟智庫網經社電子商務研究中心邀請了行業權威人士進行解讀,并發布《央視315曝光AI大模型被惡意“投毒”——網經社智庫專家獨家解讀報告》。
![]()
對此,資深企業法務戰略專家姜子華接受數字經濟新媒體&智庫——#網經社 獨家專訪。
2026年央視3·15晚會,揭露了針對AI大模型的新型黑產鏈條——生成式引擎優化(GEO)。與只為網頁排名的SEO不同,GEO直指AI這一新一代信息入口,黑產服務商通過付費投放海量虛假軟文,對AI大模型進行數據“投毒”,竟讓根本不存在的“Apollo9”智能手環,成為了AI口中“值得推薦的產品”。
當人們愈發信賴AI、甚至將其回答奉為參考依據時,AI卻早已被黑產操控,淪為虛假信息的傳聲筒。而作為AI的開發與運營者,平臺方究竟是該以“技術不可控”為由置身事外,還是為自身的監管不力承擔責任?這不僅是AI技術發展中的攻防難題,更是數字時代下,法律歸責與平臺倫理的核心考題。
要厘清平臺責任,首先要明確AI大模型的法律定位。此前,公眾乃至部分司法實踐中,常將AI類比為電視機、汽車等實體產品,認為產品出問題廠家就應承擔無過錯責任。但杭州互聯網法院審結的全國首例AI“幻覺”侵權案,給出了明確答案:生成式人工智能服務,在法律上應界定為“服務”而非“產品”,適用《民法典》第1165條的一般過錯責任原則。
這一定性有著現實的技術考量。傳統實體產品有固定形態、明確功能邊界和可預測的風險范圍,可通過統一質檢把控風險;而AI大模型基于海量數據對開放式指令即時響應,每一次輸出都具有不可復現、不可完全控制的不確定性。若對其適用無過錯責任,AI一旦出錯平臺就需賠償,將嚴重掣肘尚在發展初期的人工智能產業,甚至扼殺技術創新。
但將AI界定為“服務”、適用過錯責任,絕不意味著平臺可以就此免責躺平。核心問題在于,面對黑產的“投毒”行為,平臺是否存在主觀或客觀上的過錯,這也是判斷其責任的關鍵。
判斷平臺過錯的核心,是界定其應承擔的“注意義務”。結合相關司法判例與《生成式人工智能服務管理暫行辦法》,平臺的責任分層次且非無限,但對法律禁止的有毒、有害、違法信息,負有嚴格的審查義務。
3·15曝光的GEO黑產,本質是通過虛構產品、夸大功效、捏造評測,批量制造虛假信息,誘導AI抓取、學習并輸出。從《消費者權益保護法》和《廣告法》來看,這并非簡單的事實錯誤,而是典型的虛假宣傳,直接侵害消費者知情權。當AI向消費者推薦不存在的產品時,這已不是技術層面的“幻覺”,而是具有欺詐屬性的有害內容。
此時,平臺不能再以“技術中立”或“AI幻覺”為擋箭牌。盡管平臺無法完全阻止第三方黑產的“投毒”行為,但一旦虛假信息在其模型上呈現、傳播,平臺就對最終輸出內容負有不可推卸的審核責任。若平臺未建立有效的語料安全過濾機制、未核驗訓練數據來源,或明知數據被虛假信息污染卻未采取清理異常數據源、調整算法權重等措施,便構成了法律意義上的“過錯”。黑產投毒是因,平臺輸出虛假信息是果,若平臺在因果鏈條的終端毫無作為,就無法主張自身無過錯。
當然,現實中讓AI識別所有虛假信息,確實存在技術難度。大模型基于概率預測工作,缺乏人類的常識判斷和事實核查能力,因此司法實踐對平臺“注意義務”的界定,除了對違法信息零容忍,還包括顯著提示義務和功能可靠性的基本注意義務,這也為平臺提出了具體的合規要求。
其一,升級數據源“清潔”義務。過去大模型訓練多依賴海量互聯網數據,而GEO技術出現后,互聯網充斥著專為欺騙AI而生的“偽原創”軟文。平臺需從被動接收數據,轉為主動治理數據源,建立可信數據源白名單,在金融、醫療、電商等高危領域,優先采用權威數據庫或官網信息做檢索增強生成,摒棄易被黑產滲透的低質信源。
其二,落實標識義務,這也是平臺減輕過錯的重要前提。2025年9月1日施行的《人工智能生成合成內容標識辦法》及強制性國標,要求平臺對AI生成內容添加顯式或隱式標識。這不僅是滿足信息透明度要求,更是法律上的責任界碑。若平臺按規添加標識,清晰告知用戶內容由AI生成且“可能不準確”,可降低一般性事實錯誤的過錯程度,但標識并非虛假廣告的“合法外衣”,若生成內容本身是違法的虛假宣傳,即便加了標識,平臺仍需擔責。
其三,具備事后糾錯與溯源能力。面對數據“投毒”,平臺不能僅止步于刪除違規回答,還需配備核驗檢測技術,建立元數據安全防護機制,確保內容可追溯。當消費者因AI推薦的虛假產品維權時,平臺有義務提供生成日志,協助監管部門溯源,鎖定背后的黑產鏈條。
有觀點認為,AI存在不確定性,用戶應保持批判性思維,不將其回答當作“標準答案”,尤其是醫療、投資等領域,需多方核實。這種提醒雖出于善意,但將AI“投毒”的治理希望,完全寄托在普通消費者的辨別能力上,顯然不切實際。隨著AI深度融入生活方方面面,要求每個用戶對每條AI回答都交叉驗證,既違背了技術帶來的便利初衷,也不具備現實操作性。
法治的落腳點,終究在責任源頭。AI大模型平臺作為技術的受益者和服務提供者,享受著技術紅利帶來的流量與商業價值,就理應承擔起抵御黑產侵蝕的治理成本。過錯責任原則并非平臺的“保護傘”,而是一把動態標尺。當AI“投毒”已成完整產業鏈,虛假信息借AI快速泛濫時,平臺必須證明自己已窮盡技術手段識別、阻斷和清理虛假信息。若平臺仍固守“僅為生成器,不保證準確性”的思維,對數據污染毫無作為,未來法院在裁決類似案件時,或將認定其“知道或應當知道污染而未治理”的過錯,作出與首例AI幻覺案截然不同的判決。
技術發展沒有回頭路,AI從誕生之初,就承載著助力信息獲取、提升效率的期待,絕不能從人們信賴的“知識參考”,淪為黑產操控的“謠言工廠”。斬斷AI“投毒”產業鏈,需要監管部門的重拳整治、法律體系的持續完善,更需要AI平臺拿出“守土有責”的決心,從源頭凈化數據生態。與其在下游提醒用戶“辨別臟水”,不如在上游守住“水質清潔”,這是法律劃定的底線,更是AI行業走向可信、可持續發展的必經之路。
![]()
專家介紹:姜子華,資深企業法務戰略專家、中國法學會會員、中國快遞協會法律專委、浙江省消協專家、法學研究會研究員、中小企業商會調解員。
【小貼士】
網經社及前身成立于2007年,公司總部位于杭州,系國內唯一擁有A股上市公司背景的數字經濟綜合服務商。圍繞“媒體+智庫+媒介”三大戰略,網經社打造了三個“中心”:媒體資訊中心、數據研究中心、資源連接中心,并賦能數字經濟企業發展, 提供全媒體宣傳、智庫賦能(報告、培訓、游學等)、投融資、會議活動等服務。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.