![]()
你有沒有干過這種事——
手頭堆著十幾篇論文看不完,順手扔給AI:
“幫我總結一下核心觀點。”
然后AI叭叭叭吐出一段,你復制粘貼,完事。
如果你干過,接下來的內容,可能會讓你后背一涼。
康奈爾大學和谷歌聯手,搞了一場“AI讀論文”的盲測。
結果出來了——
AI可能根本沒讀懂。
它只是在裝懂。
01. 這場測試,狠在哪兒?
![]()
研究人員干了一件很損的事。
他們先挑了一個連科學家都經常吵架的領域:
高溫銅氧化物超導體。
這玩意兒,人類研究了30多年,論文堆成山,到現在還沒扯清楚。
然后,他們往數據庫里塞了1726篇相關論文。
接著,他們出了67道題。
注意,這不是那種“本文主要研究了什么”的傻瓜題。
而是需要——
綜合多個研究的結論,
判斷學術爭議的對錯,
甚至要做點科學推理。
說白了:這題是給科學家出的,不是給AI玩的。
02. 參賽選手:五大AI + 12個真人
![]()
他們把市面上能叫上名字的AI全拉來了:
ChatGPT-4
Claude 3.5
Perplexity AI
Gemini Advanced 1.5 Pro
NotebookLM
然后又找了12個真正的科學家。
玩法更狠:
盲評。
12個專家只看答案,不知道是人寫的還是AI寫的。
就像《蒙面歌王》,只聽聲音不看臉。
03. 結果:AI露餡了
![]()
先說好消息。
能“讀論文”的AI,確實比只會搜網頁的AI強。
比如NotebookLM這種,允許你上傳論文的,回答問題時明顯靠譜。
因為它是在你給的資料里找答案,不是去網上瞎編。
但壞消息更扎心。
AI最大的死穴:看不懂圖。
搞科研的人都知道,論文里最值錢的不是文字,是圖——
曲線圖、相圖、實驗照片、統計表……
很多結論,都在圖里藏著。
但AI到了這兒,直接翻車。
它能復述文字結論,但你要它解釋“這張圖的縱坐標為什么取對數”——
它就開始胡扯了。
研究人員直接撂了一句狠話:
“理解可視化數據,是科學家最基本的素養。現在的AI,在這一項上,不及格。”
04. 更尷尬的:AI會自己編論文
![]()
這才是讓學術界最慌的地方。
測試里發現,有些AI回答問題時,會——
引用根本不存在的論文,
拼錯參考文獻的作者名,
把復雜的學術爭論簡單化、甚至歪曲化。
說白了:
它編得像真的一樣。
康奈爾大學的那位教授(原諒我一時沒記住他全名,反正挺長)在接受采訪的時候說了一句話,我覺得特別到位:
“AI就像一個特別自信的實習生,你問什么他都能接上話,但你回頭一查,他說的有一半是瞎編的。”
在學術界,一個錯誤引用,能把整篇研究帶溝里去。
05. 科學家開始怕了
![]()
現在學術界有個趨勢:
越來越多研究生在用AI讀論文、寫綜述。
如果AI在引用上出錯,
如果AI理解錯了圖表,
如果AI把A和B兩個矛盾的觀點強行捏在一起——
這些錯誤,可能會像病毒一樣,在論文里不斷復制、傳播。
有人已經開始擔心一個更極端的未來:
AI寫論文 →
AI讀論文 →
AI引用AI寫的論文 →
最后人類科學家成了旁觀者,看著一堆機器在那里自說自話。
到時候,
科學研究會不會變成一場“機器之間的對話”?
而人類,根本不知道真相在哪兒就偏離了。
06. 最扎心的那句話
![]()
研究團隊在論文最后,寫了一段話,我看了好幾遍:
“AI在提取信息方面表現不錯,但在理解科學推理方面仍然有限。”
翻譯成大白話:
它能認字,但不一定懂科學。
07. 寫在最后
![]()
當然,我不是說AI沒用。
它確實能幫我們省時間,快速翻文獻、找資料。
但如果你指望它替你“理解”一篇論文——
那你可能要失望了。
有些東西,比如:
懷疑、直覺、爭論、靈感……
可能真的,暫時還只屬于人類。
(評論區聊聊:你有沒有被AI“編”過?我用它寫論文,它給我造了一篇假文獻……)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.