“說的都不一樣”“我真的不知道該信哪個了。”演員劉美含的一句吐槽,讓AI答案的準確性問題再次引發全網熱議。
近日,劉美含在社交平臺發布了一則視頻,表示自己在為新劇配音時,因對“鑄幣坊”中“坊”字讀音存疑,接連查詢5款主流AI工具,卻得到截然不同的答案,甚至同一AI在不同設備上的查詢結果也大相徑庭。
劉美含的這段經歷迅速引發網友共鳴,不少人留言表示自己也遇到過AI答案不一致、答非所問的情況。有網友調侃“AI也有‘意見不合’的時候”,也有網友提醒“AI只是輔助,重要問題還是要查權威資料”。
多位專家提醒,生成式人工智能本質上是一種基于概率的語言生成系統,并不具備判斷事實真偽的能力,其回答難以保證完全準確。值得注意的是,在今年政府工作報告中,“完善人工智能治理”被首次明確提出。隨著人工智能加速融入生產生活,如何在推動技術應用的同時防范潛在風險,也成為社會各界持續關注的重要議題。
“坊”字怎么讀?
5款AI工具答案不一
在其發布的視頻中,劉美含表示:“我今天去配音,有一句臺詞是‘鑄幣坊’,我說的是‘鑄幣fǎng’。然后我突然覺得有點不是很確定這個讀音,就說我們查一下怎么讀。”
然而查詢的結果卻讓她“越查越迷糊”。她先后使用百度AI、DeepSeek、元寶、豆包以及通義千問等工具進行搜索,其中百度AI給出的答案是fáng(二聲),DeepSeek和元寶則顯示為fāng(一聲),而她與錄音老師分別用豆包查詢時,竟然得到了不同的讀音結果。隨后她又詢問通義千問,得到的依然是fāng(一聲)。最終,還是經紀人通過《新華詞典》APP查詢,才確定了“鑄幣坊”中“坊”字的正確讀音為fáng。
![]()
女演員社交平臺視頻截圖
事實上,從語言規范角度看,“坊”字的讀音并不存在實質爭議。南京師范大學文學院教授化振紅表示,“坊”字自古只有一聲fāng和二聲fáng,無三聲讀法,三聲多為方言影響誤讀。現代漢語中,一聲表示街巷、店鋪、牌坊等;二聲指小手工業生產場所,如磨坊、染坊。“鑄幣坊”為造幣場所,正確讀音為fáng(二聲)。
為了驗證相關情況,南都大數據研究院記者再次使用劉美含視頻中提及的幾款AI工具搜索“鑄幣坊讀音”。結果顯示,不同平臺之間仍存在明顯分歧:DeepSeek、元寶給出的讀音依然為fāng(一聲),而豆包與通義千問的回答已顯示為fáng(二聲),百度AI則保持原本的fáng(二聲)答案不變。
AI為何“各說各話”
生成式人工智能的概率邏輯
同一個字的讀音,為何多款AI工具卻給出了不同的答案?原因在于生成式人工智能的底層運行邏輯。當前主流大模型并非基于權威知識庫逐條檢索標準答案,而是通過對海量文本語料進行訓練,基于概率預測生成“最可能”的表達。它并不具備對事實真偽的判斷能力,也無法像人類一樣進行來源核實。
當訓練語料中存在多種解釋、歷史讀音、網絡討論甚至錯誤示例時,模型就可能在不同語境下生成不同結果。此外,不同平臺的訓練數據來源、模型架構、推理策略存在差異,部分模型側重通用語料,部分則加強檢索能力或知識庫對接,這些技術路徑的差別都會影響輸出結果。再加上模型版本持續更新,同一平臺在不同時間給出的回答也可能發生變化。
事實上,劉美含遭遇的AI答案分歧,只是“AI幻覺”現象的一個縮影。所謂AI幻覺,是指生成式人工智能在輸出內容時,看似語法流暢、邏輯連貫,實則捏造細節、生成與事實相悖答案的現象,也就是大眾口中的“一本正經地胡說八道”。由于大模型往往以流暢、完整的語言表達答案,這類錯誤有時甚至比普通搜索結果更具有迷惑性。
近年來,圍繞“AI幻覺”的討論持續升溫。此前,由杭州互聯網法院審理的國內首例因生成式人工智能“幻覺”引發的侵權糾紛案件,就曾引發廣泛關注。在該案中,AI在回答用戶問題時生成了錯誤信息,并在被指出后仍堅持原說法,甚至生成“若信息有誤可起訴并賠償”的內容。法院在判決中指出,大語言模型本質上是一種基于概率的語言生成系統,并不具備判斷事實真偽的能力,因此難以實現“零錯誤”。這一技術現實意味著,AI生成錯誤信息并非個別現象。
然而在現實使用中,不少用戶仍容易被AI流暢、自信的表達所影響,將其視為可靠的知識來源。演員劉美含這次用AI查詢讀音的經歷,也再次提醒公眾,在享受技術便利的同時,需要對AI的能力邊界保持清醒認識。
如何與AI幻覺共處
技術、法治與公眾理性缺一不可
隨著生成式人工智能迅速進入日常生活,“遇事先問AI”正逐漸成為不少人的習慣。從學習、寫作到查詢知識,大模型正成為一種重要的信息工具。但在當前技術階段,AI“幻覺”難以完全避免,如何在使用便利與信息可靠之間取得平衡,成為人工智能發展中的重要課題。
清華大學公共管理學院院長、科技發展與治理研究中心主任朱旭峰認為,應辯證看待AI“幻覺”。在他看來,這類問題并非全新的社會現象,而是在信息技術環境下以新的形式呈現。隨著人工智能技術不斷迭代,在持續使用和治理中,其可靠性也會逐步提升。
與此同時,治理AI“幻覺”也離不開法治的保障。北京大學法學院教授、北京大學數字法治研究中心主任王錫鋅表示,可以通過建立生成內容標識、信息可追溯機制等方式,降低AI錯誤信息被誤用或擴散的風險。
事實上,人工智能治理也已成為國家層面的重要議題。今年政府工作報告在部署“人工智能+”行動的同時,首次提出要“完善人工智能治理”。《政府工作報告》起草組成員、國務院研究室副主任陳昌盛在國新辦吹風會上表示,要加快完善人工智能治理,加強國際對話合作,推動人工智能朝著有益、安全、公平的方向發展。
在十四屆全國人大四次會議首場“部長通道”上,工業和信息化部部長李樂成也表示,人工智能發展要統籌好發展和安全,堅持人工智能為人所用、為人服務、為人所控。
從公眾使用角度看,專家建議保持理性態度。蘇州大學科技傳播研究中心主任王國燕指出,AI生成內容往往語言流暢,但未必完全準確。面對重要信息時,應養成多查證、慢判斷的習慣,避免對AI產生過度依賴。
來源:南方都市報
編輯:王雨薇
編審:林剛
監制:趙延琦
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.