從R1的升級路徑來看,R2可能會在更大規(guī)模的數(shù)據(jù)、更強的算力支持下進行訓練,進一步提升推理能力和泛化能力,或許會在多模態(tài)融合、更復雜任務處理等方面取得突破。
![]()
在大模型領(lǐng)域,競爭的浪潮從未停歇。近期,國產(chǎn)大模型公司深度求索(DeepSeek)發(fā)布了DeepSeek R1模型的小版本升級,版本號為DeepSeek-R1-0528。這一消息看似低調(diào),實則在業(yè)內(nèi)激起千層浪,尤其是在推理能力提升方面,展現(xiàn)出了令人矚目的成果。
自誕生以來,DeepSeek憑借其獨特的技術(shù)路線和對開源的堅持,在大模型領(lǐng)域逐漸嶄露頭角。早期版本的模型已經(jīng)在自然語言處理的多個任務中表現(xiàn)出不錯的潛力,吸引了眾多開發(fā)者和研究人員的關(guān)注。其開源策略更是為社區(qū)注入了活力,大量開發(fā)者基于DeepSeek的模型進行二次開發(fā)和應用拓展,涵蓋了智能客服、內(nèi)容生成、代碼輔助等多個領(lǐng)域。
R1升級核心亮點:思維深度與推理能力顯著提升
此次升級的核心在于思維深度和推理能力的大幅躍升。DeepSeek-R1-0528依舊以2024年12月發(fā)布的DeepSeek V3 Base模型為基座,然而在后訓練階段投入了更多算力。這一舉措成效顯著,模型在數(shù)學、編程與通用邏輯等多個基準測評中成績斐然,在國內(nèi)模型中獨占鰲頭,整體表現(xiàn)已接近國際頂尖模型,如o3與Gemini-2.5-Pro。
在復雜推理任務的表現(xiàn)上,新版模型進步尤為突出。以AIME 2025測試為例,舊版模型準確率為70%,而新版躍升至87.5%。從token使用量來看,舊版模型平均每題使用12K tokens,新版則達到23K tokens ,這清晰地表明新版模型在解題時思考過程更加詳盡和深入,能夠處理更復雜的邏輯關(guān)系,挖掘問題的深層次內(nèi)涵。
DeepSeek團隊利用DeepSeek-R1-0528的思維鏈蒸餾訓練了Qwen3-8B Base,推出的DeepSeek-R1-0528-Qwen3-8B模型在數(shù)學測試AIME 2024中,僅次于DeepSeek-R1-0528,超越Qwen3-8B達10.0%,與Qwen3-235B表現(xiàn)相當。這不僅體現(xiàn)了DeepSeek-R1-0528模型自身的強大,也為學術(shù)界推理模型研究及工業(yè)界小模型開發(fā)提供了新的思路和方法,具有重要的參考價值。
幻覺問題優(yōu)化:邁向更可靠的AI交互
“幻覺”問題一直是大模型發(fā)展中的痛點。簡單來說,幻覺就是模型生成的內(nèi)容看似合理,但與事實不符或缺乏依據(jù)。在舊版模型中,這一問題在改寫潤色、總結(jié)摘要、閱讀理解等場景中時有出現(xiàn),影響了模型輸出結(jié)果的可靠性和實用性。
而新版DeepSeek R1針對幻覺問題進行了卓有成效的優(yōu)化。與舊版相比,在上述場景中,幻覺率降低了45 - 50%左右。這意味著用戶在使用模型進行信息提取、內(nèi)容創(chuàng)作等任務時,能夠獲得更為準確、可靠的結(jié)果。例如在進行新聞摘要生成時,舊版模型可能會出現(xiàn)對事件關(guān)鍵信息的錯誤表述或無中生有的內(nèi)容,而新版模型則能更精準地提煉核心內(nèi)容,減少這類錯誤的發(fā)生,大大提升了模型在實際應用中的可信度。
創(chuàng)意寫作與工具調(diào)用能力優(yōu)化
除了推理和幻覺問題的改進,新版R1在創(chuàng)意寫作和工具調(diào)用方面也有可圈可點之處。在創(chuàng)意寫作上,模型針對議論文、小說、散文等文體進一步優(yōu)化,能夠輸出篇幅更長、結(jié)構(gòu)內(nèi)容更完整的長篇作品,寫作風格也更加貼近人類偏好。無論是創(chuàng)作一篇邏輯嚴謹?shù)淖h論文,還是構(gòu)思一個情節(jié)跌宕的小說,新版R1都能生成更具可讀性和文學性的內(nèi)容,為內(nèi)容創(chuàng)作者提供了更強大的助力。
在工具調(diào)用方面,DeepSeek-R1-0528支持工具調(diào)用(盡管目前不支持在thinking中進行工具調(diào)用)。當前模型在Tau-Bench測評成績?yōu)閍irline 53.5% / retail 63.9%,與OpenAI o1-high相當,但與o3-High以及Claude 4 Sonnet仍有差距。雖然還存在提升空間,但這一能力的拓展為模型的應用場景帶來了更多可能性,例如在智能辦公場景中,模型可以調(diào)用各類辦公軟件的功能接口,實現(xiàn)更高效的文檔處理、數(shù)據(jù)分析等任務。
開源策略持續(xù),推動行業(yè)發(fā)展
DeepSeek團隊此次依舊保持了開源的傳統(tǒng),新版模型的開源倉庫(包括模型權(quán)重)均采用MIT License。這一舉措意義深遠,它允許用戶自由利用模型輸出、通過模型蒸餾等方式訓練其他模型。對于開發(fā)者而言,這意味著更低的開發(fā)成本和更高的創(chuàng)新自由度。
在開源社區(qū)中,已經(jīng)有眾多開發(fā)者基于DeepSeek的模型進行創(chuàng)新應用的開發(fā),從簡單的聊天機器人到復雜的智能數(shù)據(jù)分析系統(tǒng),開源的DeepSeek模型成為了創(chuàng)新的基石,推動整個人工智能領(lǐng)域的技術(shù)共享與創(chuàng)新發(fā)展,促進不同研究機構(gòu)和企業(yè)之間的合作與交流。
用戶實測反饋:代碼能力獲贊,寫作仍需留意幻覺
從用戶的實測反饋來看,新版DeepSeek R1的代碼能力得到了高度認可。許多開發(fā)者表示,升級后的模型經(jīng)常能直接一次生成可運行、可落地的代碼,代碼結(jié)構(gòu)清晰,注釋完整,甚至被評價有Claude 4的味道,而調(diào)用成本僅為Claude的1/3,對中小開發(fā)者十分友好。同時,模型響應敏捷,能進行長時間思考,在一些復雜編程任務中表現(xiàn)出色,例如在開發(fā)復雜的Web應用程序、數(shù)據(jù)分析腳本時,新版R1能夠快速理解需求并生成高質(zhì)量的代碼框架。
然而,在寫作方面,盡管模型在文體優(yōu)化和篇幅控制上有進步,但幻覺問題仍然存在。部分用戶在使用模型撰寫論文時發(fā)現(xiàn),即使在打開聯(lián)網(wǎng)搜索、基于真實材料分析的前提下,模型仍可能出現(xiàn)捏造數(shù)據(jù)、錯誤標注信息源時間等問題。這也提醒用戶,在使用模型進行寫作時,尤其是對內(nèi)容準確性要求極高的場景,仍需仔細核查,不能完全依賴模型輸出。
與國際競品對比:各有所長,差距縮小
與國際上的頂尖模型如OpenAI的o3、谷歌的Gemini-2.5-Pro以及Anthropic的Claude 4相比,DeepSeek-R1-0528在數(shù)學和編程推理方面已迎頭趕上,部分測試成績甚至超越部分競品。例如在LiveCodeBench基準測試中,R1-0528超越了O3-Mini,幾乎與O3(High)評分相當,展現(xiàn)出強大的編程能力 。在Extended NYT Connections基準測試中,雖然尚未進入OpenAI o系列模型占據(jù)的第一梯隊,但相比前一代也有了顯著提升。
在綜合性能上,DeepSeek-R1-0528與國際競品各有所長。國際大廠的模型在多語言處理、全球知識覆蓋等方面有著深厚的積累和優(yōu)勢,而DeepSeek-R1-0528憑借對中文語境的深入理解和在推理能力上的優(yōu)化,在國內(nèi)市場以及對推理要求較高的特定領(lǐng)域應用中具有競爭力,并且隨著不斷升級,與國際頂尖模型的差距正在逐步縮小。
R2期待:未來大模型進化的想象空間
此次R1的升級無疑是一次成功的迭代,但也讓人們對DeepSeek的下一款重磅產(chǎn)品R2充滿期待。從R1的升級路徑來看,R2可能會在更大規(guī)模的數(shù)據(jù)、更強的算力支持下進行訓練,進一步提升推理能力和泛化能力,或許會在多模態(tài)融合、更復雜任務處理等方面取得突破。例如,在圖像與文本的聯(lián)合理解和生成、跨領(lǐng)域知識融合推理等當前大模型研究的熱門方向上,R2有望帶來創(chuàng) 新性的解決方案,為用戶帶來更智能、更全面的AI服務體驗。
DeepSeek R1的這次升級是其在大模型發(fā)展道路上的重要里程碑,展示了國產(chǎn)大模型在推理能力提升和實際應用優(yōu)化方面的實力。隨著技術(shù)的不斷進步和創(chuàng)新,無論是R1的持續(xù)優(yōu)化還是未來R2的推出,都值得我們持續(xù)關(guān)注,期待其為大模型領(lǐng)域帶來更多的驚喜和變革,推動整個人工智能產(chǎn)業(yè)邁向新的高度。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.