![]()
文:王智遠 | ID:Z201440
文心5.0剛出時,我經常跟朋友推薦。
文本能力本身已經很強了,但每次推薦時,我都會額外補一句:你試試它的搜索,真的好用。
大多數(shù)人反應差不多,是禮貌性地「哦」一聲,然后該用什么還用什么。少數(shù)人會直接問,百度搜索現(xiàn)在還行嗎?
01
我理解這種反應。很多人對百度的印象停留在幾年前,覺得它是傳統(tǒng)搜索引擎,沒什么新鮮感了;你跟他說搜索好用,他心里多少會打個問號,甚至會去用各種AI助理去了。
但我確實在說真話。
我的工作有一個硬性要求,數(shù)據(jù)不能出錯;寫商業(yè)分析,引一個營收數(shù)字、市場規(guī)模、融資金額,白紙黑字發(fā)出去,錯了就是錯了,沒有「大概齊差不多」這回事。
這種校驗的痛苦,做過內容的人都懂。
同一個數(shù)據(jù),自媒體寫500萬,官方通稿報的是800萬,到底信誰?你去翻三四個信源交叉比對,才能確認哪個口徑是準的。
我用了市面上能用的工具,坦白講,數(shù)據(jù)口徑校驗這件事上,百度搜索是讓我最省心的;它能把官方信源、權威媒體的報道優(yōu)先給撈出來,而且,時效性很強,昨天的發(fā)布會數(shù)據(jù)今天就能檢索到。
這個能力聽起來不性感,對我來說是剛需。
你可以說一個AI寫作能力強、推理能力強、對話體驗好,這些我都認;如果連引用的數(shù)據(jù)都沒法確認是對的,其他能力對我來說就是空中樓閣。
百度做搜索做了二十多年,這個根基在那兒。
檢索能力、信源積累、中文語料的覆蓋,這些東西不是花兩年時間訓一個大模型就能追上的。
說實話,聽我推薦的人不多。后來,我也不太執(zhí)著于說服別人了。
人就是這樣,愿意活在自己已經接受的那個判斷里;一旦你形成了「百度搜索也就那樣」的印象,跟印象矛盾的信息,都會自動過濾掉。
打破成見是一件成本很高的事,得承認自己之前的判斷可能是錯的,這對大多數(shù)人來說比接受一個新工具難多了;所以,我也不勸了,就自己用著,直到最近,有些事情開始幫我勸了。
02
今年315,央視曝光了一個叫GEO的東西,全稱:生成式引擎優(yōu)化;聽著很專業(yè),干的事情很簡單:
花幾十塊錢,寫十來篇軟文,批量發(fā)到網上,等AI抓取、引用,幾天之后,一個根本不存在的虛構產品就能變成AI口中的「推薦好物」。
被曝光的服務商自己都不避諱,直接管這套流程叫「給AI投毒」。
這件事傳開之后,很多人的第一反應是憤怒,覺得這幫人太缺德了。如果你仔細想想,真正讓人后背發(fā)涼的,其實是另一件事:你平時問AI得到的「答案」,有多少是被喂過的?你根本不知道。
315之前,AI幻覺的問題已經在發(fā)酵了。
演員劉美含配音時遇到一個字,「鑄幣坊」的坊,不確定讀幾聲;她先后用了百度AI、DeepSeek、元寶、豆包等五款工具查了一遍,結果四款給的答案各不相同。
DeepSeek和元寶說是「一聲」,豆包換個時間查給的結果還不一樣,只有百度AI給了二聲。
最后她經紀人翻了《新華詞典》App,確認正確讀音是fáng,二聲。百度是唯一答對的。
南京師范大學文學院教授化振紅也確認了,這個字在「鑄幣坊」這個語境里,指小手工業(yè)生產場所,讀二聲沒有爭議;一個漢字讀音,查詞典三秒鐘就能解決的問題,五款AI工具能給出四種答案。
還有一個更有意思的。
有個博主在豆包上查古文「赤也為之小,孰能為之大」里面「為」字的讀音,豆包先給了一個解釋,說讀四聲,是介詞。
博主拿百度結果去對質,百度說這里的「為」是動詞,讀二聲。豆包看完之后改口了,回了一句:「你說得對,百度這里是對的,我剛才解釋錯了,非常抱歉。」
一個AI,被另一個搜索引擎的結果糾正了,然后向用戶道歉。這個畫面多少有點魔幻。
如果只是一兩個案例,可以說是偶發(fā),是模型還沒訓練到位;但315的GEO黑產、劉美含的讀音烏龍、豆包的當場認錯,這些事情擠在同一個時間窗口里集中爆發(fā),它們指向的是同一個問題。
這個問題跟某一款AI產品好不好沒關系,跟某一個大模型參數(shù)夠不夠大也沒關系,它是AI「給你答案」這種模式本身帶著的東西。
03
你有沒有想過,為什么傳統(tǒng)搜索引擎很少出現(xiàn)這種「張嘴就來」的問題?
原因很簡單。
搜索引擎給一堆鏈接,你自己點進去看,自己判斷哪個可信;它本質上在說:我?guī)湍阏业搅诉@些信源,你自己定。
AI給的是一段話,一個結論,一個看起來很確定的答案;它本質上在說:你不用看了,我替你看過了,結論在這兒。
這兩種模式的區(qū)別,表面上是效率高低的問題,往深了想,是判斷權在誰手里的問題。
搜索引擎的模式,判斷權在自己手上。信源靠不靠譜,數(shù)據(jù)口徑對不對,自己比對、拿主意。這個過程確實慢,確實麻煩,但我們對信息的來龍去脈是清楚的。
AI的模式,判斷權在模型手上。
它從海量語料里算出一個「最可能」的表達,打包成一段流暢的話遞給我們;我們讀著很舒服,很高效,但不知道這個結論是從哪來的,經過了什么篩選,丟掉了哪些不同的聲音。
GEO黑產鉆的就是這個空子。
既然用戶看不到來源,那我只要把虛假內容喂進去,模型就可能把它當成「事實」輸出;AI幻覺也是同一個邏輯,模型不知道自己不知道,但它的表達方式永遠是一副「我很確定」的樣子。
所以,劉美含查一個字的讀音,五款AI能給四種答案,每一款都說得斬釘截鐵;它們各自都很「確定」,但確定的方向完全不同。用戶站在中間,反而比不查的時候更困惑。
百度搜索在這件事上做對了什么?
它沒有放棄「給線索」這個邏輯,AI能力加上去了,但底層的搜索根基還在。我看了下資料,它在AI生成答案之前,其實做了挺重的篩選工作。
先是在信源這一關就卡得很嚴。
系統(tǒng)會自動去看發(fā)布時間、作者是誰、站點本身的信譽怎么樣,不靠譜的內容在這一步就被攔掉了,只有權威信源才能進候選池。
進了候選池也不是終點。
同一個結論,得有多個可信來源互相印證才會被采用。孤證不立,單一來源說了不算。
答案上線之后還有一層兜底。后臺有一套實時巡檢的系統(tǒng)在跑,發(fā)現(xiàn)內容有偏,立刻介入糾正。
再加上百度百科那套體系。
所有詞條先審后發(fā),機審加人審,敏感詞條還有高級別審核員二次核驗,引用的參考資料必須是權威媒體來源。這個知識庫已經聯(lián)合了中科院、北大等機構超過10萬專家,共建了超過100萬個專業(yè)詞條。
這些東西聽起來很笨,很重,很不「AI」。但恰恰是這些笨功夫,讓百度在劉美含那個測試里成了唯一給出正確答案的那個。
04
說到底,搜索和AI之間的差距,除了聰明還要關注誰更老實。講到這兒,有人可能會覺得我在唱衰AI。
真沒有。
AI在效率上的提升是實打實的,日常閑聊、文案生成、快速總結,這些場景用AI又快又好,沒必要開一個搜索引擎慢慢翻。
我想說,搜索和AI從來就不是一個替代另一個的關系。
一個很有意思的信號是OpenClaw。
這個全球爆火的智能體平臺,Skill就是它的App,開發(fā)者可以給AI裝上各種能力插件。ClawHub上面有兩萬多個Skill可以選,什么類型都有。
在搜索類Skill里面,百度搜索的下載量和收藏量排在全球第一。一個搜索引擎的官方插件,在一個AI智能體平臺上被下載得最多,你品品這件事。
開發(fā)者比普通用戶更清楚一個道理:
搜索是智能體的基礎設施。AI模型的訓練數(shù)據(jù)有時間限制,上下文窗口也有天花板;如果沒有一個靠譜的搜索能力幫它接入真實世界的最新信息,后面所有的推理、決策、自動化任務都是在沙子上蓋樓。
用一個開發(fā)者的話說,搜索類Skill決定了整個智能體應用的智商下限。
這句話反過來理解就是:AI越強大,越需要搜索來兜底。模型的推理能力再好,如果喂進去的信息就是錯的,輸出的也只會是一本正經的胡說八道。
回到開頭。
我之前跟朋友推薦百度搜索好用,大家不太信;現(xiàn)在315也好,AI幻覺也好,這些事情正在替我把道理講明白,大家用了一圈AI后,開始重新理解搜索本身的價值。
打破成見有時候不需要說服。你把真實的東西擺在那兒,等就行了。
百度搜索做了二十多年,這二十多年的積累,在AI時代到來之前,看起來是舊資產,現(xiàn)在回頭看,是地基。
地基不牢,上面蓋什么都是幻覺。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.