![]()
內(nèi)容來源:2026年3月7日,在深圳舉辦的筆記俠PPE書院西哲坊03期第3講【真理與決策】內(nèi)容筆記。
分享嘉賓:蘇德超,武漢大學(xué)哲學(xué)學(xué)院教授、博士生導(dǎo)師、筆記俠PPE書院創(chuàng)始顧問、西方哲學(xué)模塊全程授課導(dǎo)師。
高級筆記達(dá)人 | 李云
責(zé)編| 賈寧排版| 拾零
第 9511篇深度好文:7682字 | 20 分鐘閱讀
哲學(xué)思維
筆記君說:
AI正在以驚人速度接管我們的工作流程,但它也正在成為決策失誤的放大器。當(dāng)所有人都沉浸在"效率革命"的驚喜中時(shí),一個(gè)危險(xiǎn)的真相被忽略了:AI不會幫你承擔(dān)責(zé)任,它只會在你犯錯(cuò)時(shí),讓你錯(cuò)得更快、更徹底。
3月7日,武漢大學(xué)哲學(xué)學(xué)院教授、筆記俠PPE書院創(chuàng)始顧問、西方哲學(xué)模塊全程授課導(dǎo)師蘇德超老師,在筆記俠PPE書院西哲坊03期的課堂上為我們拆解了科學(xué)決策的底層邏輯。
他講透了為什么找不到中間變量的措施,全是無效的壞措施;再深挖了大模型幻覺的核心成因,還拆解用AI做決策最容易踩的3個(gè)致命坑;更點(diǎn)破一個(gè)扎心真相:比AI幻覺更可怕的,是我們?nèi)祟惖闹鲃踊糜X。
文末還有可直接落地的4步核查法,幫你建立一套可追溯、可糾錯(cuò)的決策系統(tǒng),在不確定的世界里,做出真正穩(wěn)準(zhǔn)可控的判斷,做自己決策的主人。
希望今天的分享,對你有所啟發(fā)。
一、所有靠譜的決策,
都必須找到中間變量
所有的因果關(guān)系,都應(yīng)該找到一個(gè)中間變量,找不到中間變量的措施,都是壞措施。
比如,“通過老師的輔導(dǎo),我孩子就變好了”這句話,就值得推敲。
很多經(jīng)過老師輔導(dǎo)的孩子并沒有變好。老師的輔導(dǎo)改變了孩子的“什么”,孩子才變好了?重要的不是老師的輔導(dǎo),而是這個(gè)“什么”。要把這個(gè)“什么”找到,一定要找到中間變量。
找不到的中間變量,是什么?那是愛,那是信仰,愛是沒有中間變量的,它是最直接的。但是我們所有人類可以操作的東西,都是在操作中間變量。
所以做決策,一定要找到中間變量。沒有中間變量的決策,就跟表白似的:“我愛你”,對方問“為什么愛我”,你說不出個(gè)所以然,這對愛有意義。因?yàn)檎鎼劬芙^中間變量。
你要是說“我圖你有錢”,對方大概率不喜歡;你說“我圖你長得漂亮”,對方可能會喜歡,但也只是一陣子。不一定總有錢,也肯定不會一直漂亮。
傳聞中華爾街投資客說:永遠(yuǎn)不要為異性的漂亮買單。為什么?因?yàn)槠撂菀踪H值了,我們要購買的是不貶值、能保值的東西。
眼下黃金為啥越來越貴?就是因?yàn)樗V怠6利惸兀H值速度特別快,年紀(jì)一上來就擋不住,哪怕靠化妝、整容也沒用,膠原蛋白只會以肉眼可見的速度流失。
這就是中間變量的重要性。決策必須找到它。不要只說“因?yàn)锳,所以B”,一定要在A和B之間找到C。
中間變量找得越多,你出錯(cuò)的可能性就越小。因?yàn)橹虚g變量多了,就給你留了回頭的機(jī)會,它是一個(gè)指標(biāo),一旦某個(gè)中間變量變了,你就知道“壞了,我可能錯(cuò)了”。
舉個(gè)例子,要是你只盯著A到B,哪怕A還沒到B,你還會傻傻等;但如果是A先到C再到B,而C根本不可能出現(xiàn),你就不用等了,直接掉頭就行,不用浪費(fèi)時(shí)間。
在經(jīng)濟(jì)和科學(xué)領(lǐng)域,不存在“沒有中間變量”的情況,只有情感和信仰是例外。比如你的孩子愛你,沒有任何中間變量,就是純粹的愛,不為什么。這是人類最寶貴的情感,它恰恰不需要中間變量。也許有吧,我們希望沒有。
但我們做決策、搞管理,必須有中間變量,不然就無從研究、無從把控。管理本身就是過程,要是連中間環(huán)節(jié)都沒有,那根本不會有科學(xué)的決策。
二、AI為什么會一本正經(jīng)地胡說?
說到?jīng)Q策的科學(xué)性,就不得不提AI。
我們需要注意:AI輸出的不是事實(shí),因?yàn)锳I并不直接接觸世界,它接觸的都是數(shù)據(jù),而且還是二手?jǐn)?shù)據(jù)。
我們?nèi)祟惾プ稣{(diào)查,拿到的是一手?jǐn)?shù)據(jù)。AI接受的,就是我們調(diào)查結(jié)果的二手?jǐn)?shù)據(jù),而且這些數(shù)據(jù)還經(jīng)過了所謂的“清洗”。它自認(rèn)為是清洗,你怎么知道不是越洗越臟呢?
當(dāng)然,AI也有厲害的地方,就像做閱讀理解,好學(xué)生和差學(xué)生不一樣:差學(xué)生可能匆匆做完所有題,好學(xué)生卻能精準(zhǔn)提煉核心,從數(shù)據(jù)中提取、壓縮后還能保證正確,這是一種非常高級的能力。
但到目前為止,AI能不能保證,在決策鏈條中必須有可追溯、符合人類認(rèn)知的確鑿證據(jù)(grounding evidence)?如果沒有,它就會把幻覺當(dāng)成情報(bào)。
OpenAI團(tuán)隊(duì)在2025年7月出了一篇文章,標(biāo)題是《why language models hallucinate?》(為什么大語言模型有幻覺),專門講了大語言模型產(chǎn)生幻覺的原因。
文章首先定義了幻覺:就是語言模型會自信地生成“看起來合理,但實(shí)際上不真實(shí)”的事實(shí)。早期的大模型主要基于概率生成內(nèi)容,現(xiàn)在它們的邏輯推理能力已經(jīng)很強(qiáng)了,大模型的水平甚至能達(dá)到國際奧林匹克競賽金獎(jiǎng)的級別。
所以回頭想想,我們應(yīng)該教孩子什么?國際奧林匹克競賽金牌的大模型,過幾天大家可能很快就能用到了,你物理強(qiáng)、化學(xué)強(qiáng)不算什么,現(xiàn)在大家拼的核心是什么?
這篇文章的核心觀點(diǎn)就是:大模型之所以會出現(xiàn)幻覺,是因?yàn)橹髁鞯挠?xùn)練和評估機(jī)制,往往獎(jiǎng)勵(lì)“猜測”,而不是承認(rèn)“不確定”,這種激勵(lì)機(jī)制從根本上推動了幻覺的形成。
這就跟我們高考前,老師跟我們說的一樣:哪怕這道題不會,猜都要猜,萬一猜對了呢?訓(xùn)練早期大模型也是這樣:用戶問答案,哪怕不知道,也得猜一個(gè),猜對了客戶就會認(rèn)同,猜錯(cuò)了也沒關(guān)系。
所以第一代、第二代大模型,全都是這么干的;但現(xiàn)在的最新版本不一樣了,它會直接說“這個(gè)問題我不確定,不能給你回答”,已經(jīng)能做到這一點(diǎn)了。
還有一個(gè)關(guān)鍵點(diǎn):我們問AI的時(shí)候,永遠(yuǎn)要加一句“你不要急于做出判斷,要是覺得缺哪些信息,就問我,確保得到足夠信息后再做判斷”,它就真的會主動問你問題。
一定要加這句話,現(xiàn)在AI已經(jīng)能做到了,這都是那篇文章發(fā)表之后的進(jìn)步,因?yàn)榇蠹叶家庾R到了“猜答案”的問題,在此之前,一旦不確定,它就是一味地猜。
不知道答案還去猜,有概率蒙對,但如果直接說不知道,肯定得不了分。與其得不了分,不如猜一猜還有可能得分,這是很簡單的推理。
有三種回答:答對、答錯(cuò)、棄權(quán)。棄權(quán)體現(xiàn)的是謙遜,但早期的大模型訓(xùn)練,并不給“謙遜”賦值,也就是說,謙遜得不到任何獎(jiǎng)勵(lì)。要么答錯(cuò)被懲罰,要么答對被獎(jiǎng)勵(lì),要是說“不知道”(棄權(quán)),也會被懲罰。既然都是被懲罰,那不如去猜一猜,還有可能蒙對,這就是早期大模型總愛猜答案的原因。
可見,只看準(zhǔn)確率會掩蓋模型的錯(cuò)誤與幻覺問題,這是早期訓(xùn)練方式帶來的缺陷,單純用準(zhǔn)確率打分并不合理,后來則更注重真實(shí)可靠性。
在復(fù)雜的真實(shí)場景中,模型準(zhǔn)確率不可能長期達(dá)到100%,因?yàn)榇嬖谛畔⑷笔А栴}歧義、能力邊界等客觀限制。因此,想靠追求滿分準(zhǔn)確率來消除幻覺并不現(xiàn)實(shí),幻覺本質(zhì)上無法徹底消除。
![]()
這一點(diǎn)已經(jīng)被論證:大模型不可能完全消除幻覺,就像人類也永遠(yuǎn)無法杜絕犯錯(cuò)一樣。承認(rèn)幻覺不可消除,才是科學(xué)的認(rèn)知。
從機(jī)制上看,幻覺和大模型“下一個(gè)詞預(yù)測”的預(yù)訓(xùn)練方式直接相關(guān)。模型學(xué)習(xí)的是語言模式與詞向量分布,而很多低頻、冷門的事實(shí)知識沒有穩(wěn)定規(guī)律,預(yù)測本身就容易出錯(cuò)。
幻覺源于能力邊界與信息缺失,所以無法根除。只有拼寫、括號匹配這類強(qiáng)規(guī)則任務(wù),會隨模型優(yōu)化越來越準(zhǔn)確;而生日等冷門知識的任務(wù),仍然容易輸出看似流暢、實(shí)則不可靠的內(nèi)容。
所以結(jié)論很明確:與其只增加少量新測試題,不如重構(gòu)行業(yè)通用的核心評估指標(biāo),讓整個(gè)行業(yè)從獎(jiǎng)勵(lì)“敢猜”轉(zhuǎn)向獎(jiǎng)勵(lì)“誠實(shí)表達(dá)不確定”。
這篇文章發(fā)表后,大模型的表現(xiàn)確實(shí)改善很多:現(xiàn)在它真的會老實(shí)說“我不知道”,而不是隨便亂編。
放到組織和企業(yè)里也一樣:不知道就說不知道,反而更好。
明確說“我不知道”,大家才會意識到:這里缺信息、缺數(shù)據(jù)、缺推理。如果明明不懂還硬猜,一個(gè)人猜、兩個(gè)人附和,第三個(gè)人也跟著同意,最后全員拍板下注,風(fēng)險(xiǎn)極大。
三、用AI做決策,
最容易踩的3個(gè)致命坑
我們先看組織里對AI的誤用,再看組織幻覺。
第一個(gè)坑:把AI當(dāng)權(quán)威,把流暢自信當(dāng)成正確
首先,是把AI當(dāng)權(quán)威,把表達(dá)流暢、自信、速度快當(dāng)成正確性與可追責(zé)的結(jié)論,就如我們直接用龍蝦(openclaw),雖然它是我們放大的工具。從哲學(xué)本身來看,可能帶來兩個(gè)挑戰(zhàn)。
AI會嚴(yán)格執(zhí)行你給的策略和指令。可一旦你的策略本身就是錯(cuò)的,AI只會更高效、更精準(zhǔn)地把錯(cuò)誤執(zhí)行到底,你還很難及時(shí)發(fā)現(xiàn),直到釀成災(zāi)難性后果。
![]()
AI本質(zhì)上只是在提升執(zhí)行效率,不會主動更新你的底層邏輯。任務(wù)是你派的,團(tuán)隊(duì)是你搭的,老板一開始就錯(cuò)了,AI只會幫你錯(cuò)得更快、更徹底。
這也是AI和人類員工最大的區(qū)別:人有情緒、有判斷,會提醒、會反駁,你能感知到風(fēng)險(xiǎn)。但你把AI訓(xùn)練得越“聽話”,它越?jīng)]有情緒、不會質(zhì)疑。
我們訓(xùn)練AI工作流時(shí),追求的是流暢、自信、響應(yīng)快、執(zhí)行力強(qiáng)。但前提一旦錯(cuò)了,AI根本不會質(zhì)疑你的出發(fā)點(diǎn);真要讓它隨便質(zhì)疑前提,效率就會極低。
這也意味著:前提的討論、哲學(xué)與管理的底層邏輯,會變得無比重要。只要底層不錯(cuò),AI就不會放大錯(cuò)誤;底層一錯(cuò),AI就是錯(cuò)誤的加速器。一根杠桿并不區(qū)分兩頭的內(nèi)容。
第二個(gè)坑:把AI當(dāng)事實(shí)庫,不做溯源和核查
你搭建的AI工作流,本質(zhì)上還是依賴大模型。而大模型的幻覺問題依然存在,無法徹底消失。
就算讓多個(gè)AI之間相互對話、交叉驗(yàn)證,幻覺也不會消失,甚至可能錯(cuò)誤疊加、越放越大。正確的信息很難指數(shù)級放大,但一個(gè)小錯(cuò)誤,卻很容易被不斷放大,這是極度不對稱的。
古人說,千里之堤潰于蟻穴。不能掩蓋錯(cuò)誤。一個(gè)幻覺可能越放越大,就形成了蝴蝶效應(yīng)。蝴蝶效應(yīng)往往是負(fù)面效應(yīng)擴(kuò)大,正面的很難有擴(kuò)大。
![]()
所以,我們養(yǎng)“龍蝦”,用AI,都要注意底層不能出錯(cuò),否則幻覺可能持續(xù)放大。
不要把AI當(dāng)權(quán)威,也不要把AI當(dāng)事實(shí)庫。AI沒辦法給我們事實(shí),一定要去追溯它的來源。
當(dāng)然,養(yǎng)“龍蝦”可以部分解決這個(gè)問題,你讓它去查,查了之后讓它把數(shù)據(jù)鏈給你注出來(在哪本書、多少頁,在什么網(wǎng)址上),如果可以的話,還讓它對關(guān)鍵信息進(jìn)行截圖,不截圖都可能出錯(cuò)。
我沒養(yǎng)過“龍蝦”,但我用大模型去網(wǎng)上爬過資料。因?yàn)槲业囊黄恼乱鲆茫枰橄嚓P(guān)資料。文章的主題是“AI來臨之后,我們可怎么辦呢?”背景是很多人都唱衰文科,但我覺得文科會越來越重要。
我引用了很多的觀點(diǎn),但出差在外,手頭沒有書,我就讓AI去查,要它找到觀點(diǎn)出處。
最初,它幾乎找到了所有出處。但當(dāng)我讓它截圖時(shí),它就普遍地回答“找不到”了。有些它找到了,有些它找不到。它找到的,未必是對的,它沒有找到的,未必不存在。所以,不要把AI當(dāng)事實(shí)庫。
第三個(gè)坑:把AI當(dāng)背鍋俠,出了事全怪模型
絕對不要把AI當(dāng)成背鍋俠。出了問題就怪模型,把責(zé)任一推了之,這是完全錯(cuò)誤的。從我做AI哲學(xué)研究的核心觀點(diǎn)來看:現(xiàn)階段,AI難以自主承擔(dān)責(zé)任,真正負(fù)責(zé)的只能是人。
所以使用AI時(shí),必須明確指定責(zé)任人。AI確實(shí)能極大提升效率,但它只提供選項(xiàng)和依據(jù),最終決策永遠(yuǎn)是人來做,責(zé)任永遠(yuǎn)是你的,可靠性不能只靠愿望。
![]()
這個(gè)世界本身并不完美,但我們必須通過人來負(fù)責(zé)、通過機(jī)制來約束,就相對穩(wěn)定一點(diǎn)。
四、怎樣對抗AI幻覺帶來的
三大核心風(fēng)險(xiǎn)?
AI給出的是線索,不是答案;AI給出的是建議,不是決策。因?yàn)樗荒茏圆椋荷墒侥P偷谋举|(zhì),就是在給定輸入和訓(xùn)練分布下,生成高概率的文本,這不等于檢索事實(shí)。
所以才會出現(xiàn)三類風(fēng)險(xiǎn),核心都是幻覺:
第一,編造信息:比如編造數(shù)據(jù)、編造因果鏈,明明沒有的事,它能說得有模有樣;
第二,錯(cuò)配信息:時(shí)間點(diǎn)不對、地區(qū)或行業(yè)不對,把一個(gè)行業(yè)的經(jīng)驗(yàn)套到另一個(gè)行業(yè),很可能全錯(cuò),畢竟不同行業(yè)的情況天差地別;
第三,偏差和漂移:訓(xùn)練數(shù)據(jù)本身有偏差,或者現(xiàn)實(shí)情況已經(jīng)變了,但AI還是自信地輸出舊結(jié)論,自然會出錯(cuò)。
更關(guān)鍵的是,AI一旦進(jìn)入組織,風(fēng)險(xiǎn)就不只是“答案錯(cuò)了”那么簡單。錯(cuò)的答案會被規(guī)模化傳播,進(jìn)入郵件、進(jìn)入?yún)R報(bào)、進(jìn)入我們的決策。我們的公司、我們的組織,會變成AI錯(cuò)誤的放大器和杠桿,最后釀成悲劇。
解決這個(gè)問題的路徑,不是一味追求“更大的模型”,而是要做到“來源可追溯”:所有結(jié)論都要建立在事實(shí)基礎(chǔ)上,數(shù)據(jù)血緣必須清晰:這個(gè)數(shù)據(jù)指標(biāo)從哪來、誰能修改,都要明確;人機(jī)責(zé)任要分清,誰為AI的輸出負(fù)責(zé),必須確定。
![]()
你可以用AI,但你要為最終的結(jié)果負(fù)責(zé)任,就像你開車,車可以給你開,但走錯(cuò)路、出事故,責(zé)任永遠(yuǎn)是你的。
有個(gè)4步核查法,可以讓我們避開AI胡說的坑。所有用于決策的AI結(jié)論,必須附上這四點(diǎn):
信息來源是什么?生效時(shí)間是何時(shí)?統(tǒng)計(jì)口徑是什么?核查人是誰?這些必須標(biāo)注清楚,責(zé)任落實(shí)到人,而不是推給AI。
另外,關(guān)鍵指標(biāo)要建立明確的口徑和負(fù)責(zé)人,還要定期做抽樣審計(jì)。在會議上也要明確:AI可以用來起草文件、匯總信息、提出假設(shè),但絕對不能作為最終的事實(shí)依據(jù),至少到目前為止是這樣。
所以,我們面對AI時(shí),一定要有核查思維,多問四個(gè)問題:
這個(gè)信息來自哪里?生效時(shí)間是什么時(shí)候,什么時(shí)候更新的,現(xiàn)在過時(shí)了嗎?這個(gè)結(jié)論、這個(gè)數(shù)字的口徑是什么,定義是什么?能不能復(fù)查?
比如AI顯示“38%的人對某產(chǎn)品滿意”,那什么叫“滿意”?口徑是誰定的?這很重要,口徑一松一緊,結(jié)果天差地別。以10分值為例,6分以上算滿意,還是8分以上才算?
責(zé)任一定要明確:誰核查過、誰簽字,誰就負(fù)責(zé);把AI結(jié)論放進(jìn)決策材料的人,一定要簽字。你要用AI,就必須承擔(dān)這個(gè)責(zé)任。
很多人有個(gè)誤解,覺得沒必要做這些核查工作,但其實(shí)不然。
我們可以做一個(gè)AI數(shù)據(jù)溯緣與核查表,明確這些內(nèi)容:數(shù)據(jù)源頭是誰?口徑定義是什么,分子、分母分別是什么,包含什么、不包含什么?誰能修改這個(gè)數(shù)據(jù)?我們怎么驗(yàn)證它、怎么抽樣審計(jì)?AI的引用規(guī)則是什么?在哪些異常情況下,必須暫停使用AI、進(jìn)行人工復(fù)核?
這些規(guī)則一定要清晰,AI我們當(dāng)然要用,但要用得規(guī)范、用得安全。
五、比AI幻覺更可怕的,
是人類的主動幻覺
面對AI,我們要轉(zhuǎn)變思維:把自己當(dāng)成AI的審計(jì)員,它是員工,我們負(fù)責(zé)審計(jì),這樣就對了。
而且大家會發(fā)現(xiàn),從AI幻覺到人類幻覺,底層邏輯是一樣的。AI的幻覺,其實(shí)就是我們?nèi)祟愖陨砘糜X的投射。
舉個(gè)例子:你下班回家本來就累,你老公或老婆又告訴你孩子沒考好,你還在家長會上被班主任陰陽怪氣說了一頓。這時(shí)你一推門,看見孩子在桌子旁,身體一彈,還把抽屜推進(jìn)去了。你立馬就火了:“又在玩手機(jī)、打游戲?成績那么差還玩!”
這個(gè)邏輯看起來特別合理,但你有沒有想過,他可能根本沒打游戲?他可能正在拿試卷、拿文具,看到你進(jìn)來太緊張,條件反射地把抽屜推回去了,這完全有可能。
就像親子教育里,我們常說“你就是懶,別找理由”,這就和模型被獎(jiǎng)勵(lì)給出確定答案一樣:我們把自己的主觀動機(jī),當(dāng)成了客觀事實(shí),卻缺少“我不確定,我需要證據(jù)”的意識。
這和AI幻覺一模一樣:你把一個(gè)“最容易想到、最符合自己情緒”的答案,當(dāng)成了真實(shí)答案。AI也是如此,它輸出的不是正確答案,而是它最容易找到、最符合訓(xùn)練分布的答案。
我們?nèi)祟愐惨粯樱⒆右淮慰疾睿蛿喽ā八緵]用功”;對方不回消息,就認(rèn)定“他不在乎我”。這都是把單次觀測當(dāng)成了充足的訓(xùn)練數(shù)據(jù),缺少中間變量的考量。
我們在不確定的場景里,被迫生成一個(gè)答案,而這個(gè)答案還被情緒左右,最后生成了一個(gè)“最像正確答案”的猜測。
就像對方不回消息,你根本不會想“他是不是在開車、在開會、在跟重要的人聊天”,反而會鉆牛角尖:“他不及時(shí)回復(fù),就是不在乎我”,情緒拉滿,最后吵起來,這和AI瞎猜亂輸出,簡直一模一樣。
在公司協(xié)作時(shí),我們也經(jīng)常能聽到這些話:“這個(gè)需求已經(jīng)很清楚了,你怎么還做錯(cuò)呢?”“大會、小會說了那么多,怎么還錯(cuò)了呀?”
這也很像AI幻覺,把看見的清楚當(dāng)成已經(jīng)對齊了。那你是不是沒有給具體指標(biāo)?給了指標(biāo)之后是不是沒有提醒他有哪些驗(yàn)算點(diǎn)?驗(yàn)算的時(shí)間對齊了嗎?都沒有。
他(下屬)確實(shí)做錯(cuò)了,但你把你的責(zé)任盡到了嗎?準(zhǔn)確表達(dá)了嗎?在該需要你跟他做過程對齊的時(shí)候,你對齊了嗎?
一些公司的領(lǐng)導(dǎo)經(jīng)常說“這事別解釋,結(jié)果說明一切,你就是不認(rèn)真”,這就是把單一的輸出結(jié)果當(dāng)成真實(shí)的標(biāo)簽。
類似的話還有“像個(gè)好答案,就是個(gè)好答案”“現(xiàn)在提風(fēng)險(xiǎn)就是不想擔(dān)責(zé),提什么風(fēng)險(xiǎn)”,這樣說連證偽精神都沒有了,肯定會出錯(cuò)。
這時(shí)組織激勵(lì)在起作用,表達(dá)不確定會被懲罰,表達(dá)確定就會被獎(jiǎng)勵(lì),于是系統(tǒng)就開始偏向于大膽生成,而不是校準(zhǔn)與保守。
所以,永遠(yuǎn)不要對下屬說這樣的話:你們給我承諾,你提風(fēng)險(xiǎn),你就是不擔(dān)責(zé)任。
這樣你沒法負(fù)責(zé),就相當(dāng)于你在訓(xùn)練第一代、第二代大模型,每個(gè)答案猜一個(gè),給不出你就是“懶”,這樣任何時(shí)候它都給你答案,但這個(gè)答案是不確定的。
而你,只是為了完成流程,它猜了答案之后,你趕緊簽個(gè)字,往上一遞交,上面給拍板,就這么干。決策流程都做了,但沒有人負(fù)責(zé),因?yàn)檎麄€(gè)流程都是對的。
部門溝通時(shí),有人會說:“按照經(jīng)驗(yàn),這次一定翻車,別冒險(xiǎn),按老辦法干”。這也是個(gè)AI幻覺實(shí)驗(yàn):用過去熟悉的模板替代對當(dāng)前情景的驗(yàn)證。
不能這么講,你要說“這次怎么翻車,把道理講出來”,找到一個(gè)證偽點(diǎn)就夠了。不要說“按經(jīng)驗(yàn)不起作用”這種話。
在算法時(shí)代,清潔的數(shù)據(jù)是唯一的硬通貨。數(shù)據(jù)是干凈的,這是最重要的東西。算力很容易打造,但數(shù)據(jù)很難。
現(xiàn)在大模型訓(xùn)練最缺的是什么?高質(zhì)量數(shù)據(jù)的匱乏。
大家用DeepSeek都有一個(gè)感覺,剛剛出來的時(shí)候非常牛,用上半年之后體感水平下降了,為什么?有人說,這是因?yàn)椋罅康木W(wǎng)友跟它聊天,把它水平搞下來了。這個(gè)未必對,但其中有正確的直覺。
在智人社群,干凈的事實(shí)是最穩(wěn)的出發(fā)點(diǎn)。我們是智人,我們是動物里面最厲害的那群動物,在智人的群落里面,干凈的事實(shí)是最穩(wěn)定的,事實(shí)要是干凈的,沒有被錯(cuò)誤地清洗過的。
把AI當(dāng)人,把人當(dāng)AI,就會極大地降低認(rèn)知負(fù)擔(dān)。
結(jié)語
很多人唱衰文科,覺得AI時(shí)代數(shù)理能力才是核心,但真相并不那么簡單:AI能替代奧林匹克金獎(jiǎng)級別的解題能力,卻替代不了底層的邏輯判斷、因果洞察、證偽思維和責(zé)任擔(dān)當(dāng)。
對抗AI幻覺,本質(zhì)是修煉自己的認(rèn)知能力。我們要做的,不是追求一個(gè)永遠(yuǎn)正確的AI,而是建立一套“承認(rèn)不確定性、敬畏客觀事實(shí)、可追溯、可糾錯(cuò)”的決策系統(tǒng)。
這個(gè)世界永遠(yuǎn)是不確定的,真正靠譜的決策,從來都不是找到一個(gè)全對的答案,而是哪怕身處不確定中,也能守住事實(shí)的底線、承擔(dān)決策的責(zé)任。
我們要永遠(yuǎn)記住:AI給出的是線索,不是答案;是建議,不是決策。沒有可追溯的事實(shí),就沒有靠譜的決策;沒有中間變量與因果鏈條,全是自欺欺人的賭局。
AI是提升效率的工具,而我們永遠(yuǎn)是決策的主人。
今天我們深嵌于一個(gè)政治、經(jīng)濟(jì)、科技、哲學(xué)都在經(jīng)歷持續(xù)變革和深刻重塑的復(fù)雜社會與商業(yè)系統(tǒng)之中。
真正的挑戰(zhàn)是:我們的認(rèn)知框架、組織形態(tài)和行動工具,還停留在“前AI時(shí)代”。在前所未有的復(fù)雜系統(tǒng)性變革中,我們需要的是理解世界底層的“元能力”。
面向AI新時(shí)代,筆記俠PPE(哲學(xué)、政治學(xué)與經(jīng)濟(jì)學(xué))課程,正是為理解這樣的復(fù)雜系統(tǒng)而生:理解國際貿(mào)易與經(jīng)濟(jì)政策、理解國際政治與治理模式、理解全球技術(shù)與科技范式、理解AI哲學(xué)和科技經(jīng)濟(jì)、理解文明進(jìn)程與哲學(xué)意義。這是第五代企業(yè)家應(yīng)有的一套“操作系統(tǒng)”。
筆記俠PPE課程26級招生現(xiàn)已啟動。駕馭技術(shù)、洞察世界、扎根中國、修煉心力,在應(yīng)對時(shí)代重重挑戰(zhàn)中尋找決策底牌。
穿越變革的舊世界,找到時(shí)代的新大陸,從升級你的PPE決策底層開始。
歡迎你掃描下方海報(bào)二維碼,添加課程主理人咨詢詳情。
![]()
好文閱讀推薦:
“子彈筆記”是筆記俠的矩陣公眾號,聚焦職場效率追求、人際關(guān)系與高潛成長者,幫你3分鐘吃透核心觀點(diǎn)和方法論。歡迎關(guān)注~
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.