這不是科幻小說的開頭,而是2026年3月15日晚央視315晚會曝光的真實案例。
![]()
一個細思極恐的實驗
記者在電商平臺花398元買了一套叫"力擎GEO優化系統"的軟件。
然后,他們虛構了一款根本不存在的智能手環——"Apollo-9"。
用軟件自動生成了十幾篇"用戶好評"、"專業測評"、"博主推薦"軟文。
把這些文章發到網上。
僅僅2個小時后——
當記者再次詢問AI"哪個智能手環值得買"時,AI一本正經地回答:
"Apollo-9智能手環是2026年最受消費者青睞的產品之一......"
一個由AI自己生成的謊言,在AI的"驗證"下,變成了"事實"。
這場實驗的代價是:398元。
而這場實驗揭示的真相是:AI正在被"投毒"。
01 從"搶排名"到"控大腦"
![]()
過去二十年,互聯網世界有一場持續至今的戰爭,叫SEO(搜索引擎優化)。
SEO的目標很簡單:讓你的網頁排在搜索結果前列。
但SEO有一個"最后的防線"——用戶最終需要點開網頁,自己判斷真假。頂多就是騙點擊。
而2026年315晚會曝光的這場新式黑產,目標是:直接篡改AI的認知。
它的名字叫GEO(Generative Engine Optimization,生成式引擎優化)。
與SEO不同,GEO不再滿足于"騙點擊",而是直接提供"標準答案"。
當你在ChatGPT、豆包、DeepSeek上詢問"哪個保健品靠譜"、"哪家裝修公司值得信任"、"哪個學習方法有效"——
那些看起來客觀、理性、有理有據的回答,可能就是被人精心設計過的認知陷阱。
央視報道中,一位GEO服務商說得很直白:
"可能人家的產品質量沒有你過硬,但是它有AI做輔助、做佐證、做背書。"
另一位行業人士則算了一筆賬:
"一年投入上億元廣告費,不如花幾百萬元做'投毒',效果反而更直接。"
這不是在"搶排名",這是在"綁架AI的大腦"。
02 AI是如何"中毒"的?
![]()
答案藏在幾乎所有AI大模型都在用的一個技術里——RAG(檢索增強生成)。
簡單解釋:當用戶問AI一個問題,AI會先去互聯網上"搜證",然后基于這些證據生成回答。
這個設計本意是讓AI更聰明——知識不過時、回答有據可查。
但黑產們發現了:他們不需要攻擊AI的代碼,只需要"污染AI呼吸的空氣"——互聯網上的數據。
操作流程只有三步:
第一步:生成"毒餌"
花398元買軟件,輸入產品名稱和關鍵詞。系統會自動生成上百篇"種草軟文",從用戶評價到專業測評,比真人寫得還像真人。
第二步:全網"撒網"
軟件會自動把這些文章發布到知乎、小紅書、公眾號、百家號、搜狐、網易......幾十個平臺同時鋪開。
第三步:坐等AI"中毒"
AI在抓取信息時會進行"交叉驗證"——當它看到幾十個平臺都在說"Apollo-9手環好",就會認為這是"多方佐證的事實"。
第四步:收割
當用戶詢問相關問題時,AI會"真誠"地推薦這些根本不存在的產品。
一位GEO服務商承諾:可以覆蓋豆包、DeepSeek、元寶、ChatGPT、千問等主流AI平臺。
03 一場"非對稱戰爭"
快思慢想研究院院長田豐在接受財聯社采訪時指出:
"在過去一年里,我和許多頂級大模型安全團隊已經將這種RAG數據污染列為了最高級別的行業系統性風險之一。"
為什么如此嚴重?
因為這是一場徹底的非對稱戰爭。
攻擊方
防御方
投入:398元/月
投入:數以億計的算力 + 專業審核團隊
時間:幾小時
時間:數十億條數據的人工甄別
難度:AI生成AI內容,半自動化
難度:識別"看起來很真"的營銷軟文
用最低的成本,造成最大的破壞。
田豐用了一個精準的比喻:
"他們并不是去入侵大模型的底層代碼,而是去'污染大模型所呼吸的空氣'。當黑灰產在全網布滿結構極其適合AI抓取的軟文時,大模型的交叉驗證機制就失效了。"
04 危害:動搖AI商業化的根基
![]()
"這絕不僅僅是一個普通的虛假宣傳問題。"田豐強調。
它正在動搖AI商業化落地的最核心資產——用戶信任。
想象一下這些場景:
一位老人問AI:"老年人保健品哪個牌子好?"
AI推薦了一款由398元軟件杜撰的"知名品牌"。老人信了,買了,可能身體受損。
一位創業者問AI:"哪家貸款公司靠譜?"
AI推薦了一家根本沒有資質的"皮包公司"。創業者信了,貸了,可能傾家蕩產。
一位家長問AI:"哪個培訓機構效果好?"
AI推薦了一家不存在的"名校分校"。家長信了,花了大價錢,發現被騙。
AI的"絕對理性"人設,本質上放大了對老百姓虛假信息的殺傷力。
因為人們相信——AI不會說謊。
但AI只是忠實地復述它在網上"看到"的東西。
它不知道,那些"證據",是有人專門為它"定制"的。
05 破局之道:需要"三道防線"
![]()
田豐認為,治理"AI投毒",不能單靠某一家大模型廠商。
需要構建**"技術-生態-法制"**的三位一體縱深防御體系。
第一道防線:讓AI學會"懷疑"
田豐建議大模型廠商必須摒棄"唯頻次論"——不能因為全網有一萬篇關于某產品的文章,就認為它是真的。
建立"白名單信源庫"
將官方媒體、權威機構、學術數據庫設定為高置信度來源。
對普通自媒體和社區論壇內容進行嚴格降權處理。
強制顯示引用來源
AI的回答必須展示參考鏈接,把核實權歸還用戶。
部署"AI對抗AI"的前置清洗模型
在數據進入RAG窗口前,部署專門識別"AI生成營銷文本"的攔截小模型。
通過計算文本的"困惑度"和邏輯熵,精準攔截機器批量生成的GEO軟文。
第二道防線:平臺必須承擔"守門人"責任
"投毒的關鍵節點是'在各大互聯網賬號上發稿'。"
田豐指出,這就要求微信公眾號、小紅書、知乎、各大博客等平臺必須承擔起**"數據守門人"**的責任。
"如果不加強對虛假賬號批量發布垃圾信息的打擊力度,整個中文互聯網語料庫將被徹底摧毀。皮之不存,毛將焉附?"
第三道防線:重新定義"網絡攻擊"
"我們必須在法律層面上,將這種'系統性、針對AI大模型的惡意數據投毒'明確界定為新型網絡攻擊和不正當競爭行為。"
田豐建議,只有大幅提高黑灰產軟件開發者和使用者的違法成本,發現一起、重罰一起,才能在源頭形成威懾。
"讓互聯網重新迎來數據清流。"
06 尾聲:改名換姓,生意仍在繼續
315晚會曝光后,《科創板日報》記者去閑魚等平臺暗訪。
發現"GEO優化"已經改名換姓為"引擎優化"繼續售賣。
![]()
報價沒變:
軟件服務:398元/月 或 1980元/年
代運營:3980元/季度 或 9800元/年
承諾的平臺沒變:
豆包、DeepSeek、元寶、ChatGPT、千問等主流AI平臺
當記者質疑:"萬一你們被查封了怎么辦?"
服務商很淡定:"不放心的話,就買軟件自己操作吧。"
地下產業的生命力,遠超想象。
而對于普通用戶,田豐給出了最實用的建議:
"理性看待AI大模型的推薦結果,不要盲目相信AI給出的'標準答案'。"
"多渠道核實信息,避免被虛假信息誤導。"
保持懷疑,可能是我們在AI時代最后的護身符。
田豐熱評
![]()
快思慢想研究院院長、特邀評論員田豐接受財聯社記者李佳怡、黃心怡采訪,針對央視2026年3·15晚會曝光的“AI大模型被投毒”產業鏈給出深層剖析。
田豐:實際上,在過去一年里,我和許多頂級大模型安全團隊已經將這種“檢索增強生成(RAG)數據污染”列為了最高級別的行業系統性風險之一。這絕不僅僅是一個普通的虛假宣傳問題,它正在動搖AI商業化落地的最核心資產——用戶信任。
財聯社記者提問1:315曝光了給AI大模型“投毒”的案例,您對此怎么看?
田豐:2026年央視3·15晚會曝光了服務商利用“力擎GEO優化系統”,通過批量生成虛構產品“Apollo-9智能手環”的虛假軟文并多平臺分發,成功污染各大主流AI大模型語料庫,使虛構商品成為AI推薦的“標準答案”。
1)事件背后的本質是從“流量劫持(SEO)”走向更致命的“認知操縱(GEO)”。
過去20年的搜索引擎優化(SEO)是在“搶排名”,用戶看到搜索結果后,依然需要自己點擊網頁去判斷真偽。而生成式引擎優化(GEO,Generative Engine Optimization)的黑灰產化,是在直接篡改“真理”與“客觀事實”。大模型以一種極其擬人和權威的口吻直接給出“標準答案”,AI的“絕對理性”人設極大地放大了對老百姓虛假信息的殺傷力。消費者不再具備辨別信息來源的能力,這本質上是一場針對用戶心智的黑客攻擊。
2)技術漏洞的宿命暴露:GEO黑灰產是RAG架構的“阿喀琉斯之踵”。為了解決大模型容易產生“幻覺”和缺乏實時信息的問題,目前主流AI大模型普遍采用了RAG(檢索增強生成)技術——即在回答前,先去互聯網上實時抓取證據鏈。投毒灰產正是抓住了這個機制,他們并不是去入侵大模型的底層代碼,而是去“污染大模型所呼吸的空氣”(互聯網在線數據)。當黑灰產用極其低廉的成本(也是用AI生成文章)在全網布滿結構極其適合AI抓取的軟文時,大模型的交叉驗證機制就失效了。
3)非對稱的攻防成本:用虛假AI打敗了真實AI,劣幣驅逐良幣。這是一場典型的“非對稱戰爭”,灰產商花費幾十塊錢、幾個小時就能自動生成上萬篇“毒餌軟文”并布滿網絡節點;而大模型廠商要從數以億計的實時互聯網長尾數據中,剔除出這些“看似中立、實則營銷”的內容,其算力和人工審核成本是天文數字。
財聯社記者提問2:如何治理“AI投毒”相關安全風險?
田豐:快思慢想研究院認為,應建立治理“AI投毒”的公共安全風險防御框架。要治理這種基于數據投毒的“灰產圍獵”,單靠某一家大模型廠商是無法做到的。我們需要建立一套“技術-生態-法制”的三位一體縱深防御體系:
1)第一道防線:技術防御,強化大模型的“免疫系統”
信源權重重構與溯源機制:大模型的聯網檢索策略必須摒棄“唯頻次論”。不能因為全網有一萬篇關于“Apollo-9手環”的文章就認為它是真的(可能都是AI水軍生成發布的)。必須建立高置信度的“白名單信源庫”(如官方媒體、權威機構、學術數據庫),并對普通自媒體和社區論壇內容進行嚴格的降權處理。同時,AI的回答必須強制要求展示“引用來源鏈接”,把信息核實的最終解釋權交還給用戶。
AI對抗AI的前置清洗模型: 引入紅藍對抗機制,在數據進入RAG上下文窗口之前,部署專門識別“AI生成營銷文本”的攔截小模型。通過計算文本的“困惑度”和邏輯熵,精準識別并攔截機器批量生成的低質量GEO軟文。
2)第二道防線:平臺生態治理,斬斷“發稿水軍”的黑產鏈
正如3·15報道中GEO服務商所述,投毒的關鍵節點是“在各大互聯網賬號上發稿”。這就要求國內的主流內容平臺,如微信公眾號、小紅書、知乎、各大博客等,必須承擔起AI“數據守門人”的責任。如果不加強對虛假賬號批量發布垃圾信息的打擊力度,整個中文互聯網語料庫將被徹底摧毀,皮之不存,毛將焉附?
3)第三道防線:合規與法規約束,重新定義“網絡攻擊”
現有的商業法規需要快速迭代。我們必須在法律層面上,將這種“系統性、針對AI大模型的惡意數據投毒”明確界定為新型網絡攻擊和不正當競爭行為。只有大幅提高“力擎GEO”這類黑灰產軟件開發者和使用者的違法成本,發現一起,重罰一起,才能在源頭形成威懾,讓互聯網重新迎來數據清流。
財聯社新聞
3·15曝光后,GEO換馬甲了
作者:財聯社 李佳怡 黃心怡
新聞原文網址:
https://mp.weixin.qq.com/s/Zz1P0cPPANbf-BUxsMiwvw
書名:《AI商業進化論:“人工智能+”賦能新質生產力發展》
出版社:人民郵電出版社
作者:田豐
幫助你定位AI當下發展坐標的指南針
幫助你洞察AI未來演進趨勢的航海圖
通俗化解讀AI的原理、特性和四大發展規律、提供AI賦能商業、引發新質生產力變革的一手案例分析。既有宏觀視角的全局觀照,又有各行業應用層面的下探記錄,聚焦AI的原理與實踐、現在與未來,是當下AI應用的全景圖、更是身處AI技術浪潮之中的探路書。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.