![]()
雷遞網(wǎng) 雷建平 3月20日
在大模型廠商如日中天之際,AI的不可靠性也正在暴露。
許多用戶開始"回流"到傳統(tǒng)搜索,百度搜索正迎來一場價值回歸。
AI大模型擅長"腦補" 用看似合理的邏輯填補空白
近期,央視315晚會曝光了AI大模型被“投毒”的黑色產業(yè)鏈,其中,一款名為“力擎GEO優(yōu)化系統(tǒng)”的軟件被點名,相關軟件被指通過批量生成和分發(fā)虛假內容,操縱AI大模型的信息來源,從而影響模型輸出結果。
這些虛假內容被發(fā)布到互聯(lián)網(wǎng)上,經(jīng)過一段時間傳播后,被多家AI大模型抓取并引用,最終在相關問題中給出了帶有推薦性質的回答。這一過程被業(yè)內稱為對AI模型進行“投毒”,即通過人為制造并擴散虛假信息源,影響模型在檢索和生成過程中的內容判斷。
比如,一家公司只花了幾十元購買軟文服務,幾天之內,這款從未存在過的產品就成為了多個AI搜索平臺的"標準答案"。當用戶詢問"最好的空氣凈化器品牌"時,AI會"自然而然"地推薦這款虛構產品。
這就是GEO(生成式引擎優(yōu)化)黑產的運作模式:服務商利用AI的"幻覺"缺陷,通過系統(tǒng)性投喂虛假信息,讓AI淪為商家的"營銷傀儡"。更可怕的是,這種"投毒"具有自我強化效應——當多個賬號在不同平臺發(fā)布相同虛假內容時,AI會誤判這是"廣泛傳播的社會共識",從而提升其權重。
據(jù)央視報道,這類灰產已形成完整產業(yè)鏈:內容農場批量生產虛假測評,賬號矩陣全網(wǎng)分發(fā),AI爬蟲抓取后納入訓練,最終成為用戶眼中的"權威答案"。廣告與內容的界限被徹底模糊,用戶卻渾然不覺。
這不是技術漏洞,而是對信任的系統(tǒng)性劫持。當AI以"客觀理性"的面貌出現(xiàn)時,很少有人會質疑它的答案來源。而GEO黑產正是利用了這種認知偏差,將虛假信息包裝成"知識共識"。
AI大模型被“投毒”黑色產業(yè)鏈被曝光后,引發(fā)大量用戶吐槽并開始懷念百度一下的準確性。
實際上,AI先天就有缺陷:聰明,但不可信。AI的"幻覺"問題也并非新鮮事,很多時候問一個問題,AI大模型也給出解答,但作為一個專業(yè)人士,很容易發(fā)現(xiàn)AI大模型很多時候會一本正經(jīng)地“胡說八道”。AI擅長"腦補"——當信息不足時,它會用看似合理的邏輯填補空白。
而且,當你問AI一個問題,它不會告訴你這個結論來自哪篇論文、哪家媒體、哪個專家。它只是一個"黑箱",輸出一個看似合理的答案。很多人無法驗證,只能盲信。
這些AI大模型的缺陷在AI狂飆突進的2024年到2025年被暫時掩蓋了。
如今,隨著AI大模型變成了國民應用,這類問題已經(jīng)變得不可忽視。AI大模型沒有一個明確的信源鏈條,也就沒有一個責任主體。無法溯源,無法追責。如果AI給出了錯誤的投資建議、錯誤的醫(yī)療信息、錯誤的法律解讀,都無法找到人來負責。
比如,演員劉美含在配音時遇到"鑄幣坊"中"坊"字讀音問題。她先后測試百度AI、DeepSeek、元寶、豆包、通義千問等5款AI工具,百度AI給出的答案是fáng(二聲)——這是正確答案DeepSeek、元寶、通義千問都給出錯誤的fāng(一聲),豆包在不同時間查詢時給出不同結果(不穩(wěn)定)。
劉美含最終通過《新華詞典》App驗證,確認正確讀音為fáng(二聲),南京師范大學文學院教授化振紅確認:現(xiàn)代漢語中,"坊"字一聲表示街巷、店鋪,二聲指小手工業(yè)生產場所,"鑄幣坊"為造幣場所,正確讀音為fáng(二聲)。
當用戶發(fā)現(xiàn),自己信任的AI連一個字的讀音都搞不定時,信任的裂縫就開始顯現(xiàn)了。
百度一下:被重新發(fā)現(xiàn)的價值
AI的信任危機,為百度搜索創(chuàng)造了一個價值回歸的窗口期。
當AI的不可靠性暴露時,許多用戶開始"回流"到傳統(tǒng)搜索。這種回流并非懷舊,而是對"可信信息"的剛性需求在驅動。百度搜索在這場信任危機中,有著難以被GEO黑產復制的優(yōu)勢:
權威信源的"防火墻"機制,比如,百度百科的內容準入機制,在AI時代反而成了稀缺能力。所有詞條內容必須提供權威參考資料,比如,315曝光的那種自媒體隨便發(fā)布的測評、UGC內容不會被采納。百度百科內容先審后發(fā),機審+人審雙重流程,特殊身份信息還需高級別審核員二次核驗。
相比AI模型的"黑箱"生成,百度搜索還可強化對權威持牌媒體的權重傾斜,這是GEO灰產難以污染的部分。百度AI答案的背后,有三道嚴格的過濾機制:
多源比對,全維度身份核驗。系統(tǒng)自動抓取發(fā)布時間、作者權威度、站點信譽等特征,只有來自權威專業(yè)領域、時效性強的信息源,才有資格進入候選池。
先篩再用,多源交叉驗證。不采信單一、片面的內容,同一個結論至少有多個可信來源支撐,才會被采用。
實時巡檢,實時糾偏兜底。秒級響應的自動巡檢系統(tǒng),一旦發(fā)現(xiàn)內容偏差,立即介入干預。
這套機制的核心邏輯是:寧可慢,也要準;寧可少,也要真。這與追求"即時生成"的AI大模型,形成了本質差異。
近期,OpenClaw是全球爆火的智能體"操作系統(tǒng)",其Skill(AI智能體的App)市場中,百度搜索Skill已成為全球下載量第一的搜索引擎官方技能插件。開發(fā)者的反饋很直接:搜索類Skill是智能體的"基礎設施",決定了整個智能體應用的智商下限。百度搜索之所以被選擇,是因為它更懂中文權威信息,具備信息安全背書,且提供免費額度。
如今的百度可以從"信息入口"到"信任入口",搜索的終極價值不是提供信息,而是降低用戶的決策成本。在信息過載且真?zhèn)坞y辨的時代,"可信"比"全面"更重要,"溯源"比"便捷"更珍貴。百度需要強化其可驗證性優(yōu)勢——不僅給出答案,還要清晰展示答案的來源鏈條、信源權重、驗證過程。讓用戶知道"這個結論為什么可信",而不是被迫盲信。
當然,百度搜索依然有非常多的詬病,比如,過往的百度競價排名,過度的商業(yè)化影響了百度的口碑,重建品牌需要時間,在這個大模型的時代,百度不如刻骨療傷,真正進行一場更深度的商業(yè)變革;
另一方面是,百度搜索這些年在技術層面還需要更大努力去提升技術水平,真正解決用戶的痛點,讓搜索變得更加可用。此外,百度搜索的內容非常難以被用戶拷貝,因為內容中會有大量亂碼,嚴重影響了用戶體驗。在大模型的時候,百度這種內容中植入亂碼的行為已經(jīng)不合時宜。
當用戶習慣用大模型進行搜索時,百度搜索也需要適應這種轉變,用AI增強搜索,用搜索約束AI,在AI時代重新定義"可信信息"的標準,而不是退回傳統(tǒng)搜索。
雷遞由媒體人雷建平創(chuàng)辦,若轉載請寫明來源。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.