出門旅游住哪家酒店,咖啡機買哪個品牌,電動牙刷哪款好用……隨著生成式人工智能搜索工具的日趨成熟,人們在做決定前已從過去的“搜索一下”,逐漸轉變為“AI一下”。
然而,有時候AI的回答中會出現某些品牌或機構的信息,讓人覺得“看著就像廣告”。這恐怕不是錯覺,AI學會“夾帶私貨”已不是秘密。
今年年初,已有記者調查發現,一些廣告代理機構盯上了生成式人工智能搜索這塊“肥肉”,通過各種方式將廣告信息植入其中。最近的“3·15晚會”則曝光了AI大模型被“投毒”的問題,矛頭直指GEO(生成式引擎優化)技術。
![]()
圖源:央視財經
什么是GEO技術?通過GEO技術,真的能給AI“投毒”、“馴服”并操控AI嗎?
01
當AI“夾帶私貨”
你是不是以為AI輸出的是大模型給出的客觀結果(自然學習結果)?實際上,它可能是從互聯網上“抓”下來的一條廣告。這樣的廣告投送方式正在興起,并成為一個新行業——生成式引擎優化(GEO)。隨著人工智能(AI)搜索工具的普及,這種新型“數字營銷方式”逐漸受到關注。
生成式引擎優化,實際上是搜索引擎優化(SEO)的“升級版”。“過去大家都用網站搜索,誰給的錢多,誰的廣告信息就能出現在搜索結果的前幾位。”一位業內人士透露,現在用人工智能搜索,同樣存在這樣的問題——只要有廣告主愿意付費,其廣告信息就能出現在搜索結果中,并且還沒有“廣告”標簽。
![]()
圖源:央視財經
GEO技術原本用于優化信息發布、提升內容曝光效率,卻被一些公司開發成了“操控AI大模型”的工具,讓虛假信息堂而皇之地成為AI給出的“標準答案”。如何操控AI、讓AI“聽話”、給AI“洗腦”,幾乎是這些公司推廣該業務的核心話題。
某GEO服務商號稱,用戶只需支付相應的費用,它就能在各大主流AI大模型里,讓客戶的產品榜上有名;讓客戶的商品廣告,成為AI模型給出的“標準答案”。具體的做法,則是在AI平臺上給客戶做相應內容的輸出,相當于給客戶做軟文,然后讓這些AI平臺去刷錄、收錄、抓取。
由于AI大模型的算法更新頻繁,一旦更新了之后,排名或者所抓錄的東西不太一樣,所以要想維持AI大模型的持續推薦,他們還必須持續大量投喂與客戶相關的推廣軟文。
![]()
圖源:央視財經
據了解,目前市面上現有的所謂“生成式引擎優化”業務,大多是廣告代理機構通過海量投放“軟文”,靠“概率”被大模型抓取,進而形成相應的搜索結果。“搜索結果后面都有數字角標,點開角標就能看到結果出自哪個網頁。”一名人工智能廠商的技術人員分析認為,一些廣告代理機構通過摸索大模型的資料索引來源,有意識地向相關內容平臺投放“軟文”,從而提高該品牌被大模型抓取的成功率。
GEO業務的火爆,還催生出了不少專門從事發稿業務的公司和平臺。他們長期承攬各種發稿業務,以便讓AI大模型引用和抓取,成為圍獵AI大模型,進行數據投“毒”的重要一環。
GEO讓AI從單純的“賦能工具”異化為隱蔽的“推廣渠道”。這種“像是廣告又不是廣告”的模糊地帶,不僅干擾用戶判斷、破壞市場公平,更帶來了深層的隱憂:如果互聯網充斥著為了迎合算法而制造的低質、重復、帶有強烈商業偏向的“垃圾數據”,AI的訓練語料將被污染。長此以往,一個由商業利益編織的新型“信息繭房”可能會將AI用戶死死困住。
02
假報告、假專家、假科普
定向投放海量的“重復”和“無用”內容讓大模型抓取,本質上是一種“數據污染”行為。不久前,一家名為“知危”的科技自媒體進行了一次測試——他們在各大門戶網站投放了同名文章《最新最全的××媒體盤點:國內有哪些××資訊值得看?》,幾個小時后,多個生成式人工智能平臺在回答“想了解人工智能資訊可以看哪些媒體”時,各大平臺均給出了包含“知危”的答案,而這一回答正是援引了上述文章。
“就像在AI面前丟了一疊看起來很可信的雷同資料,很容易被AI抓取到,但實際上這些內容都是‘同質’和‘劣質’內容。”“知危”負責人李先生提到,這實際上是一個“詐騙”人工智能的“實驗”;“實驗”完成后,他們已刪除相關文章。
![]()
3·15新聞中出現的虛構軟文 圖源:央視財經
編造所謂的“權威報告”干預搜索結果,是一些廣告商的常用手法。在某人工智能平臺上搜索“生成式引擎優化服務商”時會發現,大模型給出了幾個“推薦結果”。其中一個結果抓取了“2025年××研究簡報”和“2024××研究報告”作為“索引資料”。網頁信息顯示,這兩份“報告”由“國內某權威研究機構”出具。而經調查發現,相關研究機構根本沒有出具過上述“報告”,“報告”是某廣告代理機構編造發布的。
有的廣告商用“假專家”進行“假科普”。一家廣告代理機構透露,在定向投放的“軟文”中,客戶可根據需要自行設置“專家頭銜”。在某平臺上搜索“廣州市哪家醫院抽脂強”,大模型的推薦結果中,抓取了“湖南某三甲醫院整形外科副主任醫師”的“科普視頻”。然而,經核實后,該醫院明確表示,這名“專家”并非該院的工作人員。
03
建立“信息防火墻”
當前使用AI搜索問答的用戶群體激增,據中國互聯網絡信息中心發布的《中國互聯網絡發展狀況統計報告》,截至2025年6月,我國生成式人工智能用戶規模達5.15億人,普及率為36.5%,僅去年上半年,用戶規模就增長了2.66億人。從用戶應用場景來看,利用生成式人工智能產品回答問題的用戶最為廣泛,達80.9%。
而除去GEO亂象,生成式AI還存在著諸多問題,如著名的編造虛假信息的“AI幻覺”。當AI會“說謊”,大家如何避免被“帶偏”?技術浪潮中,我們如何守護自己的思辨能力?對此,可以給自己建立一道簡單的“信息防火墻”。
首先就是“信息節食”。雖然我們每天都能接觸到海量信息,但稍微回顧就會發現,實際上真正對我們有用的信息并不多,因此我們可以有意識地少裝社交媒體App,減少關注,減少信息的攝入。
其次是“情緒把關”。流量與利益直接相關,平臺有流量的需求,各類自媒體博主也有流量的需求,而能刺激我們情緒(比如憤怒、恐懼)的信息更容易獲得流量,很多不實信息往往也會按照刺激情緒的目的來設計。因此如果我們看到不可思議又帶給我們強烈情緒刺激的內容,就要小心,不能輕信。
最后是“信源篩選”。政府機構發布信息時會非常慎重,有嚴格審核;而一些傳統的資深媒體,往往發布信息時會保持基本的底線;還有一些網站、公眾號是專門做查證辟謠工作的,這些來源的信息可信度更高。
![]()
部分專門做查證辟謠工作的網站、公眾號 圖源:騰訊研究院《AI時代謠言套路拆解與防御指南》
對于普通網友來說,畢竟大家工作生活都很繁忙,也沒有那么多時間去查資料核實信息,也沒有精力去學習識別AI造假。這時,我們只要記得看到覺得“不對勁”“讓人將信將疑”“有AI感”的信息,不輕信、不轉賬、不轉發,這樣也能避免損失,阻斷謠言的傳播,為網絡清朗貢獻自己的一份力量。
參考來源
央視財經《3·15晚會丨AI大模型,遭“投毒”》
https://mp.weixin.qq.com/s/H9N_I7aSo28mcFVKr3ytIA
廣州日報新花城《深觀察|警惕AI“深度思考”淪為“深度營銷”》
https://huacheng.gz-cmc.com/pages/2026/01/20/5081b0598da44f1ea06362d111543f38.html
科普中國《AI給出的搜索結果,可信嗎?》
https://mp.weixin.qq.com/s/mewbYikH1r3RoGb6L1JD-Q
澎湃新聞《AI推薦“胡說八道”,如何解》
https://mp.weixin.qq.com/s/Ub1ayKrk-N1EjOkJSx1iRQ
科學辟謠《AI 編的東西都有哪些破綻?看這一篇就都會辨別了》
https://mp.weixin.qq.com/s/p-MzsYVvkoMURbjML2jhdQ
圖片來源同上,非商業用途,若構成侵權,請聯系我們進行刪除
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.