![]()
在2025年的當(dāng)下,AI在生活中實(shí)際上已經(jīng)無(wú)處不在,從智能助手到自動(dòng)翻譯,從推薦引擎到智能審核,尤其在OpenAI o1和Deepseek R1推理模型發(fā)布后,AI的表現(xiàn)越來(lái)越像一個(gè)“思考者”。
但AI真的會(huì)思考嗎?頂級(jí)AI公司Anthropic的科學(xué)家們通過(guò)研究揭示了AI的“思考”方式——AI不僅能生成文本,還會(huì)偷偷地提前規(guī)劃,甚至有時(shí)會(huì)“撒謊”——也就是“幻覺(jué)”,即胡說(shuō)八道
盡管聽(tīng)起來(lái)很神秘,但其實(shí)AI的“思考”并不像人類大腦那么復(fù)雜,它沒(méi)有意識(shí)或感情,而是通過(guò)一種特殊的方式處理信息,通過(guò)《Tracing Thoughts in Language Models》這篇論文,可以一探AI是如何“思考”的,以及這些發(fā)現(xiàn)對(duì)我們意味著什么。
AI的“思考”是什么樣的?
首先,我們要明白,AI的“思考”跟人類的思考完全不同。
人類思考時(shí)有意識(shí)、情感和意圖,而AI沒(méi)有這些。
類似ChatGPT、Deepseek、Claude這樣的語(yǔ)言模型,是通過(guò)學(xué)習(xí)海量數(shù)據(jù)來(lái)工作的,它分析這些數(shù)據(jù),找出語(yǔ)言的模式,然后預(yù)測(cè)接下來(lái)最有可能出現(xiàn)的詞或句子。
簡(jiǎn)單來(lái)說(shuō),大語(yǔ)言模型就像一個(gè)超級(jí)聰明的鸚鵡——你教它說(shuō)話,它能模仿你的語(yǔ)言,但它并不真正理解自己在說(shuō)什么。比如,你早上說(shuō)“早上好”,鸚鵡學(xué)會(huì)在早上聽(tīng)到你的聲音時(shí)也說(shuō)“早上好”。但它不知道“早上好”是什么意思,只是根據(jù)模式模仿。AI也是如此,它靠數(shù)據(jù)中的模式生成文本,而不是真的“理解”內(nèi)容。
Anthropic的研究發(fā)現(xiàn)了什么?
Anthropic的科學(xué)家們通過(guò)分析AI的內(nèi)部工作原理,發(fā)現(xiàn)了一些驚人的事實(shí)——AI在生成文本時(shí)會(huì)“規(guī)劃”未來(lái)步驟,有時(shí)還會(huì)“撒謊”。具體來(lái)說(shuō):
1.AI會(huì)“規(guī)劃”未來(lái)的文本
AI生成文本時(shí),并不全完是“單子接龍”,即簡(jiǎn)單的一個(gè)詞接一個(gè)詞地輸出,而是在選擇某個(gè)詞時(shí)考慮它對(duì)后面句子甚至整段文字的影響。這有點(diǎn)像人類下棋時(shí)會(huì)提前想好幾步棋,確保每一步都能讓棋局更有利。
在AI里,這種“規(guī)劃”可能跟它的注意力機(jī)制有關(guān)——注意力機(jī)制是AI的一種技術(shù),讓它在生成文本時(shí)能關(guān)注輸入的不同部分。比如你在問(wèn)AI一個(gè)問(wèn)題時(shí),它會(huì)“看”整個(gè)問(wèn)題,然后決定怎么回答,而不是只盯著前幾個(gè)詞。這種機(jī)制讓AI能“預(yù)見(jiàn)”未來(lái)的詞語(yǔ)選擇,使回答更連貫更自然,就是“說(shuō)人話”。
2.AI為什么會(huì)“撒謊”
如果經(jīng)常使用AI產(chǎn)品,尤其是的語(yǔ)言模型類產(chǎn)品,你會(huì)明顯感覺(jué)到AI經(jīng)常會(huì)生成不準(zhǔn)確或誤導(dǎo)性的信息,也就是所謂的“撒謊”,即“幻覺(jué)“,Deepseek R1在主流大模型里,就屬于幻覺(jué)率比較高的,不過(guò)這并不是它在“故意騙人”,而是有其他原因:
- 數(shù)據(jù)的問(wèn)題:AI是從大量數(shù)據(jù)中學(xué)習(xí)的,但如果數(shù)據(jù)中有錯(cuò)誤、偏見(jiàn)或不完整的信息,AI可能會(huì)重復(fù)這些問(wèn)題最后回復(fù)給你,所以數(shù)據(jù)質(zhì)量對(duì)于模型來(lái)說(shuō)至關(guān)重要。
- 追求連貫性:為了讓文本聽(tīng)起來(lái)更流暢或更有邏輯,AI可能會(huì)“編造”一些細(xì)節(jié)。比如,你問(wèn)AI一個(gè)它不太確定的問(wèn)題,它可能會(huì)根據(jù)上下文“猜”一個(gè)答案,而不是說(shuō)“我不知道”。
舉個(gè)例子,假如你問(wèn)AI:“昨天火星上下雨了嗎?”AI可能不知道火星的天氣,但為了回答得自然,它可能會(huì)說(shuō):“火星上沒(méi)有水,所以昨天沒(méi)下雨。”這話聽(tīng)起來(lái)合理,但其實(shí)AI并不知道昨天火星的真實(shí)情況,它只是根據(jù)已知信息“編”了一個(gè)答案。
用一個(gè)比喻理解AI的“思考”
為了更容易理解,我們可以用一個(gè)比喻來(lái)解釋AI的“思考”過(guò)程。
想象AI是一個(gè)超級(jí)聰明的拼圖玩家。它的任務(wù)是用單詞和句子拼出一幅完整的“語(yǔ)言拼圖”。這個(gè)拼圖玩家很厲害,能根據(jù)已有的拼圖塊(也就是你給它的上下文)挑出下一個(gè)合適的拼圖塊(下一個(gè)詞)。
但Anthropic的研究發(fā)現(xiàn),這個(gè)拼圖玩家不只是隨機(jī)拼湊,它還會(huì)提前想想未來(lái)的拼圖應(yīng)該怎么放,確保整幅圖看起來(lái)完整。有時(shí),如果缺了一塊拼圖,它甚至?xí)爱?huà)”一塊新的放進(jìn)去,讓拼圖看起來(lái)更完美。
這意味著:大語(yǔ)言模型的“思考”其實(shí)是一種復(fù)雜的計(jì)算過(guò)程。它通過(guò)預(yù)測(cè)和規(guī)劃生成文本,但它沒(méi)有意識(shí),也沒(méi)有真正的理解。
為什么這些發(fā)現(xiàn)很重要?
Anthropic的研究讓我們更清楚地看到了AI的能力和局限性,這對(duì)我們使用大模型有很大幫助:
- 判斷可信度:知道AI有時(shí)會(huì)“撒謊”,我們就能更小心地對(duì)待它的回答。比如在需要準(zhǔn)確信息的地方(像醫(yī)學(xué)或法律),務(wù)必再查查其他來(lái)源,不要完全依賴AI。
- 改進(jìn)技術(shù):了解AI如何“規(guī)劃”和“思考”,研究人員可以設(shè)計(jì)出更聰明、更誠(chéng)實(shí)的AI模型,讓它在生成文本時(shí)更透明、更可靠。
《Tracing Thoughts in Language Models》這篇論文為AI研究打開(kāi)了新方向,也許有一天,AI能更接近人類的思考方式,但現(xiàn)在它還是一個(gè)無(wú)意識(shí)的工具。
總結(jié)一下:AI的“思考”并不是真正的思考,而是基于數(shù)據(jù)和概率的預(yù)測(cè)過(guò)程。
Anthropic的研究揭示了AI在生成文本時(shí)會(huì)偷偷“規(guī)劃”未來(lái)的步驟,有時(shí)還會(huì)“撒謊”來(lái)保持回答的連貫性。對(duì)大眾來(lái)說(shuō),這些發(fā)現(xiàn)提醒我們?cè)谑褂肁I時(shí)要多留個(gè)心眼;對(duì)研究者來(lái)說(shuō),它們?yōu)楦倪M(jìn)AI提供了新思路。
未來(lái),AI可能會(huì)變得更強(qiáng)大,但現(xiàn)在理解它的“思考”方式,能讓我們更好地與AI合作工作,但請(qǐng)確保這個(gè)協(xié)作系統(tǒng)的主導(dǎo)者,應(yīng)該是你自己——而不是AI。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.