![]()
來源:悉術生物、蔚青學者
最近網上流傳了一張截圖,具體內容是某單位發布了新通知,說國自然申報系統后臺疑似已接入大模型相關能力,一旦被判定存在不規范使用AI生成內容的情況,可能被通報依托單位并引發后續科研誠信與管理流程。
![]()
![]()
圖源:網絡
“AI寫的本子一定會查出來還會通報”,真能查?查到什么程度?靠什么標準?說白了,“AI查重”那套邏輯:最后往往不是抓住了“造假的人”,而是折騰了“認真寫的人”。更何況現在的AI痕跡這件事,本身就很玄:同樣一句話,有人覺得“像AI”,有人覺得“就是書面語”;有的老師寫作本來就規整,反而更容易被懷疑。
于是爭論就來了:如果所謂“檢測”是黑箱,閾值不公開、規則不解釋、誤傷也沒說法,那它就不只是技術工具,而是一種管理姿態——一句“能查出來”可以讓所有人自我審查、人人心里發毛。反過來講,如果基金委確實要求寫“AI使用說明”,那也說明它至少在制度層面默認“有人會用”,重點可能是“你用到哪里、有沒有負責、有沒有違規”。所以“能不能查出來”這事,最后很可能不是算力多強的問題,而是“要不要抓、抓誰、抓到什么程度”的問題。
2026 年國自然申報系統確實有調整方向,系統中會新增AI 使用相關填寫模塊,要求申請人對 AI 使用情況進行如實說明,這一導向是明確的。基金委的核心態度并非禁止AI 工具,而是要求使用透明、責任到人。
這并非禁止使用AI工具,而是劃定了“人是第一責任人” 的絕對紅線。其主要目的是防范因AI工具的“幻覺”現象導致申請書中出現無意識的不實內容。它警示所有申請人:技術是助手,誠信是基石,任何工具都不能成為學術表述失實的借口。這些內容關乎標書核心價值,是評審重點,使用AI必須詳細標注,模糊表述即踩紅線。
立論依據綜述與邏輯梳理
用AI(如ChatGPT、Consensus)檢索文獻、梳理研究脈絡或知識缺口,需說明使用方式及人工核實過程。示例:“在‘國內外研究現狀’部分,使用ChatGPT-4對近五年‘腸神經膠質細胞調控肝纖維化’文獻摘要聚類,生成初步框架;申請人精讀核心文獻后核實重寫核心觀點。”
研究假說與創新點提煉
用AI輔助凝練、優化創新點表述,需披露。示例:“在‘項目創新之處’,使用文心一言優化3個初步創新點的表述邏輯;最終內容由申請人確定并經團隊論證。”
技術路線與實驗方案設計
用AI生成或優化實驗步驟、試劑配方,需說明參與范圍及驗證過程。示例:“‘免疫熒光染色方案’中,用ChatGPT-4獲取多色抗體組合優化建議;申請人查閱文獻并通過預實驗驗證,確定最終方案。”
機制示意圖繪制
用AI(如DALL·E 3)生成圖表初稿,需聲明使用及人工修正過程。示例:“圖2機制示意圖初版由DALL·E 3生成;申請人用Adobe Illustrator重繪,修正科學錯誤并補充細節,經專家審核確認。”
目前市面上所有 AI 文本檢測手段,都做不到百分百精準識別。技術層面多依靠文本特征、句式邏輯、詞匯分布做判斷,專業科研文本本身就具備嚴謹、規整、邏輯清晰的特點,和AI 生成內容的特征存在天然重疊。長期規范寫作的科研人員,文本反而容易被系統標記為高風險,經過深度人工修改的 AI 內容,檢測難度會大幅提升。所謂接入特定大模型端口實現溯源識別,現階段不具備普遍落地的技術條件,也無官方落地信息。
基金委和依托單位關注的重點,從來不是有沒有點開過AI 工具,而是使用方式是否越過科研誠信底線。直接用 AI 生成立項依據、創新點、研究內容、技術路線等核心板塊,整段復制拼接后簡單修改,屬于明確的高風險行為。用 AI 做語言通順調整、標點格式整理、簡單文獻翻譯對照,這類輔助性操作本身不構成違規。
因此,申請人在使用AI工具時,需始終保持警惕,明確區分哪些操作屬于合理輔助,哪些可能觸及紅線。科研活動本質上是人類智慧的結晶,任何技術手段都應服務于這一核心目標,而非替代或扭曲它。基金委的態度表明,透明度和責任感是關鍵,申請人必須清楚記錄AI參與的具體環節,并對其結果進行充分驗證和修正。
編輯、審核:石瑾鵬
版權聲明:本文由“TOP大學來了”綜合自“悉術生物、蔚青學者”,文章轉摘只為學術傳播,如涉及侵權問題,請聯系我們,我們將及時修改或刪除。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.