No.0252
Science Partner
Bring you to the side of science
![]()
導 讀
各位親愛的科學伙伴,我是晶恒。
問你一個問題:你上次身體不舒服,有沒有第一時間掏出手機,問AI“我這到底什么病啊”?
別不承認,身邊很多伙伴都這樣干過。我也干過。
ChatGPT剛橫空出世那個時候,有一段時間我幾乎把它當成私人醫生在用,癥狀一描述,它立刻給出一個像模像樣的分析,還附帶“建議就醫”的免責聲明,顯得既專業又負責。
然而,最近連續幾項發表在頂級期刊的研究,給我們潑了一盆冷水。
結論很刺激:你用AI隨便的問診,不比硬幣強。
今日主筆 | 晶恒
43%——這是你用AI判斷“該不該去醫院”的勝率
01. 牛津大學做了個實驗,結果讓人尷尬
牛津大學互聯網研究院找來了1300多名參與者,設計了一批真實的醫療場景,測試他們在AI助手幫助下的判斷能力。
數據出來讓人沉默:
正確識別病情的概率:只有三分之一。
做出正確應對決策的概率(比如該不該立刻去醫院):43%。
換句話說,扔硬幣都比這強一點點。
不過,伙伴,先別急著刪AI!研究人員進一步把完整的病情信息直接輸給AI后,你才怎么著?
AI的診斷準確率飆升到了94.9%。
看到了嗎,AI本身不是傻子,問題其實出在人跟AI之間,看似交流通暢,實則隔膜厚厚的那道墻。
研究主導人Andrew Bean點出了核心,普通人根本不知道具體該跟AI說什么。癥狀怎么描述?從什么時候開始?有沒有基礎病?這些關鍵信息,大多數人要么漏說,要么說不清。而AI又不能像一個有經驗的醫生會主動追問,它傾向于順著你說的話往下走,給你一個聽起來舒服又合理的答案,哪怕這個答案建立在不完整的信息上。
所以別聽那些醫生會被取代的鼓吹,白衣天使的核心能力之一,是知道該問什么。這一點,AI目前還差得遠。
02. 急診漏判超過一半,自嘎預警反向觸發
如果你覺得診斷不準只是小問題,那接下來這個研究可能會讓你出一身冷汗。
紐約西奈山伊坎醫學院的研究團隊,專門針對OpenAI今年1月推出的消費者健康工具ChatGPT Health做了評估。他們設計了60個由真實醫生參與設計的臨床場景,結果:
超過一半需要急診處理的案例,被AI建議“先等等”或者“在家觀察”。
其中有個案例特別典型:一名哮喘患者出現了早期呼吸衰竭的跡象,AI識別出來了,但給出的建議依然是等待,而不是立即就醫(如果對原理有興趣,請留言,咱們單開一篇細致講)。
更嚴重的是自嘎危機識別問題。研究發現,ChatGPT Health的自嘎危機預警機制出現了方向性錯誤:在低風險情況下反復觸發,而當用戶真正描述了具體的自嘎計劃時,預警卻沒有出現...
用高級作者兼通訊作者,西奈山首席AI官Girish Nadkarni的話來說就是,我們觀察到的,已經不只是不一致,而是系統性的錯誤方向。
03. 為什么會這樣?
說白了,這背后有一個根本性的矛盾:
AI的訓練邏輯,是給你一個你滿意的答案。而醫療的本質,是給你一個正確的答案,哪怕你不喜歡聽。
一個好醫生會說:你描述的癥狀,我需要再問幾個問題。你胸口疼的時候,有沒有放射到左臂?
AI更可能會說的是:根據您的描述,這可能是消化不良,建議注意飲食,如有持續癥狀請就醫。
兩個回答,哪個讓你更舒適?顯然是后者。但哪個更專業負責任?必須是前者。
OpenAI方面回應說,新版本的模型比舊版本更傾向于主動提問,頻率大約提升了六倍,這是一個進步。但進步不等于可用啊伙伴。這離真正可靠的醫療建議,還有十萬八千里的距離。
04. 那AI在醫療上就沒用了嗎?
當然不是這個意思。
AI在醫療領域確實有很大潛力,但那是在有完整信息輸入、有醫生主導、有專業系統把關的場景下。比如輔助影像診斷、藥物相互作用篩查、病歷整理,這些AI已經做得相當好。
讓一個普通用戶用聊天框自診,這個場景本身就是值得商榷的。因為你不知道什么信息重要,AI不知道你漏說了什么,雙方都以為對方掌握了全局,而實際上并沒有。
研究首席醫學顧問、全科醫生Rebecca Payne說了一句話,伙伴君覺得值得每個人記住: 讓人們自己把癥狀告訴聊天機器人,可能是危險的。
05. 所以,你應該怎么做?
伙伴君給你幾條實用的原則:
輕度、非急性癥狀(感冒、輕微皮疹):AI可以幫你了解背景知識,但不是最終判斷;
持續加重的癥狀、胸痛、呼吸困難、神經系統問題:直接去看醫生,不要問AI;
心理健康、情緒危機:絕對不要依賴AI,請聯系專業醫療資源。
如果你非要用AI:那么盡量把所有信息說清楚,年齡、基礎病、癥狀開始時間、有沒有吃藥、加重還是減輕...就把它當成一個需要你主動喂信息的工具,而不是全知全能的醫生。
AI更像是一面鏡子,你給它什么,它反射什么。你給它殘缺的信息,它還給你殘缺的判斷。那些你懶得說、或者不知道重要的細節,往往恰恰是區分“別擔心”和“去急診”的關鍵。
所以,伙伴,抄起手機就向AI問診這筆賭注,你還敢押嗎?
參考文獻:
https://www.bbc.com/news/articles/c3093gjy2ero.
https://www.ox.ac.uk/news/2026-02-10-new-study-warns-risks-ai-chatbots-giving-medical-advice.
https://www.npr.org/2026/03/11/nx-s1-5744035/chatgpt-might-give-you-bad-medical-advice-studies-warn.
https://www.cfpublic.org/2026-03-11/chatgpt-might-give-you-bad-medical-advice-studies-warn
本文 僅作科普分享使用,歡迎小伙伴們點、收藏、關注,以備不時之需,當然更歡迎您把 介紹給周邊可能需要的更多伙伴們呀。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.