如果你是一個博士生,寫一篇論文大概需要多久?
樂觀一點,三個月。悲觀一點,三年也不是不可能。中間還得經歷選題被斃、實驗跑崩、數據對不上、審稿人第三輪還在要求major revision(就是大改!)等人間疾苦。
![]()
最近有個AI,用了417小時干完了166篇。
這個AI叫FARS,全稱Fully Automated Research System,全自動科研系統,來自一家你可能沒聽過的中國初創公司,Analemma。它的工作流程跟博士生一模一樣:翻文獻、找選題、提假設、設計實驗、寫代碼跑數據、分析結果、畫圖、成稿。全程沒有導師催,沒有deadline焦慮,不喝咖啡,不上廁所,24小時連軸轉。
更離譜的是,整個過程是直播的。任何人都可以打開網頁,實時圍觀這個AI怎么肝論文。就像看一個博士生在直播間里趕稿,只不過這個博士不需要睡覺。
讓它跑的人的原話很簡單:先寫100篇。
結果這臺“論文機器”一口氣跑了417小時,累計17天,產出了166篇論文。平均每2小時17分鐘交一篇。整個過程消耗了216億個token,燒掉大約18.6萬美元,折合人民幣超過130萬,算下來每篇論文的成本大約1100美元。
![]()
結算畫面
博士生看了沉默,導師看了流淚。
但先別急著感嘆。我們得搞清楚兩件事:這個系統是怎么工作的?它寫出來的東西,到底能不能看?
01.造一臺論文機器
做FARS的人叫孫天祥,復旦大學自然語言處理方向的博士,2024年畢業。
![]()
孫天祥個人主頁
這個名字你可能沒聽過,但他做過的東西你沒準有印象:MOSS。
2023年初,ChatGPT剛在全球引爆AI熱潮的時候,復旦大學發布了MOSS,這是國內最早一批對標ChatGPT的大語言模型之一。當時社交媒體上鋪天蓋地的討論,各路媒體爭相報道,MOSS項目的核心主導者,就是當時還是博士生的孫天祥。
![]()
當時的新聞稿,時間是亮點
2024年博士畢業后,他輾轉進入上海創智學院擔任助理教授,同時創立了Analemma。公司的slogan是:“In a world of infinite questions, it is time to build an infinite mind”,翻譯過來就是:在一個問題無窮的世界,是時候構建一個無窮的心智。
這話聽著玄乎,但他做的事倒是挺實在的:先造一個能自己做科研的AI系統,即本文的主角FARS。
FARS的工作方式,用人話說就是,四個AI研究員流水線協作:
-選題agent(Ideation):負責翻文獻、找研究方向、提出假設
-規劃agent(Planning):把假設變成具體的實驗方案
-實驗agent(Experiment):寫代碼、調用GPU集群跑實驗、收集數據
-寫作agent(Writing):把實驗結果整理成一篇完整的論文
![]()
FARS的架構圖
四個agent在一個共享文件系統里協作,彼此之間不直接對話,而是通過讀寫文件來交接工作,背后撐著這套系統的,是160塊英偉達GPU組成的算力集群,配上所有agent想要調用的一線大模型。
打開FARS的直播頁面,你能看到的東西相當豐富。頂上是當前課題的標題,下面一條進度條標著“選題→規劃→實驗→寫作”走到了哪一步。左邊是項目隊列,十幾個編號排著隊,跑完一個換下一個。中間是當前項目的實驗清單,哪步做完了、哪步還在跑,標得清清楚楚。右邊是GPU集群的實時狀態。如截圖里顯示的是76塊GPU同時在干活,利用率75%。最底下一排數字實時跳動:已經產出了多少個假設、多少篇論文、跑了多久、燒了多少錢,整個界面就像一個科研工廠的監控大屏,全程直播放送。
![]()
直播頁面長這樣
FARS目前聚焦的研究領域是AI本身,也被稱為“AI4AI”,用AI來研究AI。選這個領域有務實的考量:AI領域的實驗可以完全在計算機上完成,不需要物理實驗室,天然適合自動化。當然,局限也很明顯:FARS暫時沒法跑極度燒算力的實驗(比如大規模預訓練),也沒法完成需要人類直接參與的實驗(比如人工標注或專家評估)。
FARS還有一個設計上的執念:全程透明。所有166篇論文的代碼,都通過FARS自己的GitLab賬號公開提交。選擇直播,也是因為創始人認為,規模化是檢驗AI科研系統的唯一方式。給它幾篇論文看看,說明不了什么問題。只有大規模運行并且完全公開,才能讓學術界真正去審視這個系統的能力和局限。
說到GitLab,其實還有個小插曲。FARS最早是在GitHub上提交代碼的,但因為提交頻率實在太高,觸發了GitHub的頻率限制,賬號被卡了,只好搬到GitLab。打開FARS的GitLab主頁,活動熱力圖很有意思:一整年幾乎全是灰色,就最近兩周多突然黑了一片。
![]()
FARS在Gitlab頁面
02.它寫出來的東西,能看嗎
說了這么多,FARS寫出來的論文到底長什么樣?我們來看一個具體的例子。
在FARS產出的166篇論文里,有一篇叫《Local-Time AdamW for Stability-Gap Reduction in Continual Learning》(用于減少持續學習中穩定性間隙的局部時間AdamW)。翻譯成人話就是:AI在學習新任務的時候,經常會突然“忘掉”之前學過的東西,表現斷崖式下跌,雖然過一會兒會恢復,但這個閃崩本身就很危險。FARS發現,AdamW優化器里一個叫“偏差校正”的機制,在任務切換時會幫倒忙,于是提出了一個改進方法:在任務切換時只重置校正步數,保留記憶緩沖區。
這個改動只需要改一行代碼。
然后FARS設計了實驗:在兩個標準數據集上跑了對照實驗,用了5個隨機種子取平均,還專門設計了一個“如果關掉偏差校正,效果還在不在”的驗證實驗來排除干擾因素。最終結論是,這個方法在一個數據集上把穩定性間隙降低了31%,在另一個上降了17%。
整篇論文7頁,結構完整,有摘要、引言、相關工作、方法、實驗、結論,引用了15篇參考文獻,代碼開源在GitLab上。
這不是一篇隨便糊弄的AI八股文。它有自己的假設、有實驗設計、有對照組、有統計檢驗、有代碼,論文的開頭還明確標注了一行警告:“WARNING: This paper was generated by an automated research system.”(警告:本論文由自動化研究系統生成。)
![]()
論文寫完之后還過了一道“審稿”。FARS使用的是斯坦福大學開發的AI審稿系統(Stanford Agentic Reviewer)。這個AI審稿員給出了詳細的評審意見:肯定了研究的動機清晰、方法簡潔、實驗設計有對照組驗證了因果機制;同時也指出了不足:實驗規模偏小、缺少與更簡單替代方案(比如直接調低學習率)的對比、對超參數敏感性的討論不夠。最終打分:5.2/10,評價大致相當于“weak accept”,有價值但還差點意思。
![]()
這個分數高不高?說實話,不算高。但問題是,一個AI系統用平均2個多小時自動完成的論文,拿到了一個5分出頭的審稿意見,很多初次投稿的碩士生,花幾個月寫的論文,可能也就這水平。
![]()
FARS還有另一面,它也會失敗。
在FARS的論文庫里,有一篇研究對象是機器人控制AI的思考過程。現在有一類叫VLA(視覺-語言-動作模型)的系統,它看到攝像頭畫面、聽到語言指令后,再給出動作指令。有意思的是,新一代VLA不是一口氣給出答案,而是在內部反復琢磨,像在草稿紙上不斷修改一樣,反復調整自己的中間狀態,琢磨夠了才輸出最終動作。
問題來了:怎么判斷AI“琢磨夠了”?已有的方法是看輸出端:如果AI連續兩步給出的動作幾乎一樣,就認為它想好了,可以停了。但FARS提出了一個更直覺的想法:與其盯著輸出看,不如直接看AI內部“草稿紙”的變化。如果草稿紙上的內容趨于穩定,說明思考真的收斂了,這應該是一個更可靠的判斷依據。
FARS為這個假設設計了完整的對照實驗方案,設置了嚴格的公平比較條件,還預設了一系列前提檢驗來確保實驗的有效性。但它同時也在論文里寫明了:這個假設可能是錯的,如果AI內部的“草稿紙”變化并不遵循收斂規律,那這個方法就不會奏效。即便失敗了,這個否定結果本身也有價值,它說明收斂指標的選擇并不是關鍵杠桿,研究者應該把精力放在其他方面。
![]()
研究失敗,認了
這種態度反而讓人覺得,這個系統比想象中更誠實。它不只展示成功的案例,也把不確定的、可能走不通的研究方向攤出來。在真正的科研里,大量假設最終都會被推翻,只不過人類科學家很少發表走不通的思路。FARS不挑結果,做完就如實報告。
03.博士生該緊張嗎
FARS不是唯一在做這件事兒的。
2024年,日本AI公司Sakana AI發布了“AI Scientist”系統,號稱能自主完成從選題到成稿的全流程。同年年底,英國初創公司Intology推出了Zochi,也是類似的全自動科研系統。2025年,Sakana AI的升級版AI Scientist v2更進一步,它產出的論文,已經有被ICLR 2025 Workshop接收的案例。
這意味著,AI寫的論文,確實已經通過了學術界的同行評審,雖然目前僅限于workshop級別。
順帶一提,在這一輪AI浪潮里,日本整體聲量不大,但Sakana AI例外。它是目前日本身價最高的AI公司之一,聯合創始人Llion Jones是那篇改變了整個AI行業的著名論文《Attention is All You Need》的八位作者之一。
![]()
Sakana AI 兩位創始人;David Ha(左)、Llion Jones(右)
但在這股熱潮之外,學術界對AI科學家的能力評估還相對冷靜。
2025年,西湖大學聯合國內多所高校發表了一篇大規模綜述論文《How Far Are AI Scientists from Changing the World?》(AI科學家離改變世界有多遠?),系統梳理了當前所有主流AI科學家系統的研究進展和短板。
![]()
標題已經比較直白了
這篇論文提出了一個能力框架,把AI科學家的成長分為四個層級:
1.知識獲取——能不能自己讀文獻、搜索和理解已有的研究?
2.想法生成——能不能提出新穎且可行的科學假設?
3.驗證與證偽——能不能設計實驗、寫代碼、分析結果來驗證假設?
4.進化——能不能從反饋中學習,持續提升自己的科研能力?
![]()
也可以看作是AI研究員的成長之路
目前,大多數AI科學家系統集中在前兩個層級,讀文獻和提想法。到了“驗證”這一關,問題就來了。綜述團隊用一個叫DeepReviewer的AI審稿模型,對5個主流AI科學家系統公開發表的28篇論文做了評估。結果不太好看:
- 評分最高的系統,平均也只有4.63/10
- 100%的論文存在“實驗弱點”
- 96.4%存在“方法論不清或有缺陷”
- 89.3%存在“創新性存疑”
![]()
28篇文章里,發現AI還是有不少共性問題
換句話說,現在的AI科學家系統,在“做實驗”這件事上還差得遠。它們可以產出看起來完整的論文,但在實驗設計的嚴謹性、方法論的創新性和可復現性上,離真正的高水平科研還有相當大的距離。
綜述還指出了幾個值得注意的問題:
第一,沖擊同行評審體系。如果AI系統可以大規模、低成本地生成論文,現有的學術審稿機制可能會被淹沒。審稿人已經忙不過來了,再加上海量AI生成的投稿,整個學術評價體系可能會出問題。
第二,削弱科研訓練。如果年輕學者從一開始就過度依賴AI來選題、設計實驗、寫論文,那么批判性思維、動手能力、對科學方法的直覺理解,這些需要長期訓練才能獲得的能力,可能會被慢慢侵蝕。
第三,AI可能進入不該進入的領域。 一個不受約束的AI科學家系統,理論上可以自主探索任何研究方向,包括那些涉及安全風險的方向。
但趨勢是明確的。
就在這幾天,Analemma開始公開招募志愿審稿人,邀請人類研究者來評審FARS自動生成的論文。完成審稿的志愿者將被列為評審報告的作者,還能獲得產品積分和實體紀念品。反正我品出了這樣的味道:人類的角色正在從“寫論文的”變成“給AI批作業的”。
![]()
從2024年的“AI輔助人類寫論文”,再到現在FARS這種“AI做科研、AI審稿、人工二次審核”的模式,范式正在快速迭代。
我們今天討論“AI能不能做科研”,可能就像十年前討論“AI能不能下圍棋”。問題本身很快就會過時。真正的問題是,當AI真的能做科研了,我們的學術體系、科研訓練甚至科學倫理,準備好了嗎?
FARS跑了417小時,寫了166篇論文。這些論文的質量參差不齊,有的還不錯,有的很一般,有的甚至以失敗告終。但它做了一件以前沒人真正做到的事:讓AI從頭到尾獨立做科研,然后把所有過程攤在陽光下。所以不得不說,不管你是期待還是警惕,可能都需要接受這個現實:
它們才剛入學,它們的研究生涯才剛剛開始。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.