![]()
圖源:The Rise of Deepfake Medical Imaging: Radiologists’ Diagnostic Accuracy in Detecting ChatGPT-generated Radiographs
好的牙·訊|2026年3月24日,發表于北美放射學會(RSNA)會刊《Radiology》期刊的一項研究顯示,放射科醫生及多模態大語言模型(LLMs)均難以分辨真實的X光片與AI生成的“深度偽造”圖像。在未獲知包含偽造圖像的情況下,放射科醫生識別AI生成的X光片準確率僅為41%。
該項研究由紐約西奈山伊坎醫學院研究團隊完成,共納入了來自6個國家的12家機構的17名放射科醫生,涵蓋了從初學者到執業40年的資深專家。研究共測試了264張X光片,其中包括由ChatGPT生成的身體各部位影像,以及使用斯坦福大學開發的開源生成式AI擴散模型RoentGen生成的胸部影像。
實驗數據顯示,當醫生被告知存在合成影像后,其平均識別準確率提升至75%。而在AI模型表現方面,GPT-4o、GPT-5、Gemini 2.5 Pro及Llama 4 Maverick的準確率在57%至85%之間。值得注意的是,盡管ChatGPT-4o表現優于其他模型,但作為圖像生成工具的它,仍無法完全識別出所有由其生成的偽造影像。
研究人員指出,這些高度逼真的偽造影像不僅可能在虛假訴訟中作為證據,還存在嚴重的信息安全風險。若黑客侵入醫院網絡并注入合成影像,可能導致誤診并破壞數字病歷的可靠性。目前,偽造影像在視覺上呈現出“過于完美”的特征,如骨骼過滑、脊柱異常筆直、血管分布過度均勻等,但在未來的AI演進中,這些特征可能進一步消失。
此前,好的牙曾報道韓國延世大學牙科學院實習課程中出現篡改X光片的學術造假事件:部分學生使用Photoshop修補或替換影像,以掩蓋操作失誤。彼時造假依賴人工,尚有痕跡可查。而本次發表于《Radiology》的研究進一步提示,在生成式AI介入后,偽造影像的逼真度可能持續上升,欺詐與誤導的潛在風險隨之擴大。
制度層面的應對同樣滯后。根據好的牙此前報道,紐約州已擬立法禁止AI聊天機器人直接提供醫療建議,將AI風險納入監管視野;但針對影像真實性的系統性保護機制,目前仍屬空白。為此,研究建議醫療影像領域在圖像捕獲時嵌入不可見水印及加密簽名,以驗證來源真實性。
研究人員同樣指出,該研究目前仍存在一定局限性:樣本量相對較小且實驗環境與真實臨床場景存在差異,深度偽造技術在CT和MRI等3D影像中的影響仍有待進一步驗證。
【特別鳴謝】如果本文有錯漏之處需要勘誤,請聯系我們的客服,屆時我們會為您準備小禮物,感謝!
【免責聲明】上述內容源于公開信息,可能存在不準確性,僅供參考。本文不構成對任何人的投資與決策建議,好的牙不對因使用本資料而導致的損失承擔任何責任,并對本內容擁有最終解釋權。文中圖片均已獲版權方授權
@好的牙口腔行業研究
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.