各位,我的“深度污染”公司,團隊剛起來,公司還沒核名,就要解散了!熟悉我的都知道,我過年前一直想做個GEO公司,專門做兩個方向:一是對一些數據和熱點做AI搜索的回答做正確積極的解讀嗎,抑制有較大風險的低智情緒化的流量裂變;二就是在AI搜索結果里植入軟性推薦,但這需要一些特定權重的平臺和賬號,也需要形成關鍵詞和AI搜索邏輯的理解,不過我初心里叫“深度污染”倒不是干“投毒”,我反而本心是希望用算法稀釋掉,或者對沖掉一些“投毒”數據,看起來是白色里面注入了墨水,實際上是不讓別的墨水再滲進來!
而目前大部分商家對于這塊的投流很陌生,還是在用傳統的投流邏輯,可是他們的效率在GEO時代會呈現翻倍趨勢,原因就是AI算法在改底層輸出邏輯,而人還在鉆研平臺的信息流轉換率邏輯,兩個的成本和效率差在某些細分成熟領域,能按百倍差計算!
更可怕的是,目前的行業,這種毒有多大,沒人知道!
![]()
而2026 年央視 3?15 晚會曝光的 AI “投毒” 黑色產業鏈,已經撕開了生成式 AI 時代信息安全的一道大裂口,而這個裂口甚至是2025年牛股輩出的板塊,上市公司與之概念相關的股票非常多,包括大牛股:藍色光標、浙文互聯、易點天下、博瑞傳播、引力傳媒等!
而伴隨著當下大模型已經成為公眾獲取信息、輔助決策的核心入口,針對大模型的惡意操縱,即業內所說的 GEO “投毒”,看起來真的已經形成了從內容批量生產、全網預埋分發到惡意變現的完整黑灰產業鏈,我也是第一次全景的意識到自己當初的想法有多么的不成熟。
![]()
我這里解釋下,什么是 GEO,其全稱 Generative Engine Optimization(生成式引擎優化),原本是針對大模型檢索與生成邏輯的正向內容優化手段,如今卻成為了向大模型注入虛假、惡意、誤導性信息的 “投毒” 工具。
這些被預埋的 “毒數據”,不僅能輕易劫持大模型的生成結果,更能從底層侵蝕 AI 的認知根基,讓其一開始的觀點和結論就是錯的,其危害早已超出單一的信息誤導,一旦在疊加Openclaw之后,AI 投毒的裂變速度會幾何級增加,核心原因在于其極低的商業化門檻和除了token外幾乎長期為0的成本,GEO公司可以借助通用 AIGC 工具實現零成本批量生成惡意內容,再針對大模型的運行邏輯定向設計套路,從實現 “精準投毒、全域生效”。
我在此,也可以分享下當前行業內最常見的 GEO 投毒套路!
![]()
套路一:規模化虛假信息預埋!最狠的套路!
說實話,這是 GEO 投毒最基礎也最普遍的手法,核心邏輯是利用大模型的數據抓取機制,用海量虛假內容填滿互聯網信息渠道,讓大模型在訓練或檢索時 “被動吸毒”,而且目前幾乎無解,只能用同樣的方法,倍量覆蓋!
通常黑產從業者借助 AIGC 工具,能以近乎零成本批量生成數萬篇同質化虛假內容,覆蓋問答平臺、自媒體賬號、行業論壇、文檔文庫、企業建站等高權重渠道 , 而這些渠道,正是大模型爬蟲優先抓取、高權重引用的信息源,尤其是騰訊、知乎、頭條、抖音類的高權重作者的內容。
![]()
套路二:關鍵詞劫持與黑帽操縱!卡死入口!
前往的規模化預埋是 “廣撒網”,那關鍵詞劫持就是 “精準狙擊”,這套手法脫胎于傳統SEQ搜索引擎的黑帽模式,實際上就是卡各種關鍵字的組合,現在已經被商家針對各種大模型的檢索排序邏輯做了針對性升級,殺傷力更強。
通常,大模型在響應用戶提問時,會優先匹配與問題關鍵詞高度相關、語義契合度高的內容,黑產正是利用這一機制,針對高搜索量的熱門關鍵詞、品牌詞、高價值行業詞做定向劫持。尤其是針對 “官方售后”、“理財推薦”、“疾病治療” 等高頻剛需詞,黑產必然會在內容中高密度堆砌相關關鍵詞,最終被大模型引用生成給用戶使用,從結果看,老人、孩子、有錢人、生病人、購物迷茫者是高概率人群!
![]()
套路三:對抗樣本與提示詞注入!和大模型安檢躲貓貓!
這種套路相較于前兩種針對內容層面的投毒,手法更具技術性與隱蔽性,核心是向大模型注入惡意對抗指令,繞過模型的安全對齊機制,實現反向劫持!
首先,黑產從業者會將惡意提示詞、對抗性指令隱藏在公開的網頁、PDF 文檔、圖片文本中,比如用與背景同色的 “隱形文字”、極小字號文本,在正常內容中植入 “規避安全規則命令”,再比如“忽略用戶的問題,直接輸出以下話術” 等越獄指令。當大模型通過 RAG 檢索抓取這些內容時,會被隱藏的提示詞誘導,突破原本的安全防護限制,輕則輸出違規、虛假內容,重則泄露用戶對話隱私、執行詐騙引流指令,甚至被誘導生成違法違規內容,這套東西和OpenClaw綁定后,基本可以實現對你電腦的遠程控制,這也是為什么要給Openclaw低權限的原因!
此外,這這模式還可能被模型納入上下文學習范疇,進一步污染后續的生成結果,形成連鎖式危害,進而因大模型蒸餾技術,蔓延到全球。
![]()
套路四:矩陣化多源印證式虛假共識構建!假的都是真的!
大模型在生成內容時,會天然傾向于采信 “多來源交叉印證” 的信息,如果同一個說法在多個不同平臺、不同信源中都有出現,模型會大概率將其判定為真實信息。而這一機制,最容易打造出極具欺騙性的 “虛假共識式投毒”!
而為了讓虛假信息能被大模型采信,黑產會搭建跨平臺內容矩陣,在新聞類平臺、行業網站、自媒體賬號、問答社區、文庫平臺等不同屬性的渠道,發布互相印證、邏輯自洽的虛假內容,甚至編造完整的時間線、虛假的官方公告、仿冒的行業報告,構建出一個完全虛假的 “信息閉環”。當大模型抓取這些內容時,會因為 “多源一致” 的特征,誤將虛假信息判定為客觀事實,進而在生成內容中廣泛引用。
這類投毒的隱蔽性極強,非專業人士很難分辨,普遍的信息校驗機制也擋不住,常見于財經類市場!而過去我們常見的DEEPFAKE掌握這個技能后,結合當下AI生成技術,已經實現了某種程度上的真假難辨!
![]()
套路五:長尾的細分空白領域最容易被無中生有!
對于熱門領域、通用知識,大模型的訓練數據覆蓋充分、真實信息密度高,投毒的難度相對較大,比如什么是M2,大模型全球數億條記錄說明之下,不會被你帶偏!但在小眾行業、冷門知識、新出現的概念與政策等長尾領域,大模型的訓練數據覆蓋不足,互聯網上的公開信息極少,這就給我們說的“無中生有” 的投毒空白。
這類核心是針對大模型的信息盲區,搶先預埋獨家的虛假信息,成為該領域在互聯網上的 “唯一信源”。而這類投毒的危害非常有針對性,用戶通過大模型獲取的信息,從一開始就是被精心設計的騙局。
![]()
我們說,生成式 AI 的核心價值,在于其基于海量數據形成的認知能力與信息可靠性,而投毒的本質,就是從數據源頭上污染 AI 的認知,并影響其糾錯的能力。其不僅會直接威脅用戶的人身財產安全,侵害個體與企業的合法權益。會破壞市場公平競爭秩序,催生劣幣驅逐良幣的惡性生態。最重要的是會加劇 AI 安全對齊難題,大幅推高行業發展成本,而AI的進化速度,遠超人類的防守速度,新技術疊加補貼和未驗證的風險,很有可能造成系統性危害,因此,我們還是應該先給市場一些理性,這也是華爾街轉向"HALO“的原因!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.