![]()
智東西
作者 云鵬
編輯 漠影
當前,“龍蝦”火爆全球,從消費者到企業,紛紛開始“養龍蝦”,但在部分提高效率的同時,這種AI智能體所帶來的問題也同樣突出。
除了數據安全,處理復雜任務分分鐘燒掉海量Token的問題也困擾不少用戶,干活一時爽,一看賬單傻眼。
![]()
海外有用戶曝出,他只是問了一句“你好”,模型進行大量思考直接燒掉數十美元。
如果說個人場景尚且可以靈活處理,但企業級AI應用落地,則必須要面對高Token消耗帶來的成本挑戰。
OpenClaw這類Agent其實只是AI的“手腳”,背后的模型才是真正的“大腦”,要解決高消耗高成本的問題,仍然要從核心的模型入手。
當前企業在Agent模型底座的選擇上面臨著“兩難困境”,想要高智能,就必須面對成倍Token消耗,以及推理延遲的增加,而選擇低成本,則往往需要犧牲模型能力。
對企業來說,任何無效Token消耗都是真金白銀的流失,因此在當下,模型效率已經成為決定企業智能的核心要素。
近來,國內AI大模型團隊YuanLab.ai發布并開源了Yuan3.0 Ultra多模態基礎大模型,在國內外引起較高關注。
![]()
發布當天,其在GitHub上公布了完整的模型權重、代碼和技術報告:
![]()
「開源地址 」
GitHub項目:
https://github.com/Yuan-lab-LLM/Yuan3.0-Ultra
論文鏈接:
https://arxiv.org/abs/2601.14327
值得一提的是,這是當前業界僅有的三個萬億級開源多模態大模型之一,其最核心的創新之處在于通過LAEP技術——基于學習的自適應專家剪枝,在不破壞功能結構的情況下剪除冗余,實現了33%的參數減少,且訓練速度還暴漲了49%,輸出時間縮短14%的同時準確率提高16%。
可以說是真正的魚和熊掌兼得,成本和智能“既要又要”。
從檢索增強生成、多模態文檔理解、表格數據分析、內容摘要與工具調用等任務,Yuan3.0 Ultra在多個企業級AI常常面對的核心場景和難點方面表現突出。
![]()
在YuanLab.ai團隊看來,效率不是成本優化的“可選項”,而是模型能力的“組成部分”,他們的目標就是讓企業能以更少的算力開銷,產生更大的智能。
Yuan3.0 Ultra證明了旗艦級智能可以通過更高效、更經濟、更可控的方式實現,可以說給企業Agent落地提供了核心能力支撐。
一、三項關鍵技術創新背后,如何實現“有效思考”與“極致降本”?
26年初,YuanLab.ai團隊就已經發布了Yuan3.0 Flash模型,聚焦推理端效率,減少無效token消耗,通過RIRM、RAPO等核心技術創新打破了“高智能必須高Token消耗”的悖論,驗證了“更少算力,并不意味著更弱能力”。
而這次發布的Yuan 3.0 Ultra旗艦模型,進一步裁除冗余專家,讓模型結構更加精煉,通過LAEP、LFA、RIRM等技術實現了“不需要無節制堆算力就能獲得更強智能”。
整體來看,Yuan 3.0 Ultra從預訓練架構、注意力機制到推理范式,進行了全鏈路技術創新。基于“有效思考”技術體系,其實現了“有效規模”的進一步突破,可以說解決了大模型“參數虛高、算力浪費、落地困難”的痛點。
具體來看,其核心突破點之一是自適應專家裁剪算法(LAEP),簡單來說,專家不需要更多,而在于更有效。
如果把MoE架構大模型比作一個百人研發團隊,其核心優勢本該是“專業分工、高效協作”,但在真實的工程實踐中,卻出現了嚴重的“團隊管理失控”。
MoE大模型普遍存在預訓練專家負載嚴重不均衡的問題,訓練穩定階段最高與最低專家負載差異可達近500倍。
少數專家承擔了絕大多數計算任務,而大量低貢獻專家長期處于低負載狀態,造成算力資源的嚴重浪費,也導致模型參數虛高、利用效率低下,企業落地成本居高不下。
![]()
▲預訓練過程中各層專家token分布的演化趨勢(左列)及穩定階段負載分布(右列)
簡單來說:少數幾個專家干了絕大多數的活,部分專家全程“摸魚”。
行業主流MoE模型(Mixtral、DeepSeek-V3)普遍依賴輔助損失函數來約束專家利用率,“精度與均衡不可兼得”。
YuanLab.ai團隊研發了自適應專家裁剪算法(LAEP),基于MoE模型預訓練過程中自然形成的專家功能專一化規律,動態識別并剔除低貢獻冗余專家,對模型結構進行自適應裁剪與專家重排。
具體來說,就是“多勞多得”、“按勞分配”,計算資源傾斜給價值和貢獻更高的專家。
這一過程類比人類大腦學習過程中對神經連接的優化重組——保留高效信息處理通路,削弱低效連接,在維持甚至強化模型專業化能力的同時,提升算力利用效率。
從實際效果來看,預訓練初始1515B參數優化至1010B,參數規模減少33.3%;預訓練算力效率提升49%、單次推理僅激活68.8B參數;性能方面也處于頭部陣營。
![]()
▲Yuan3.0 Ultra采用LAEP+專家重排機制有效提升機制訓練效率
核心突破點之二,是語義建模能力升級,基于LFA技術強化長上下文語義關聯能力。
在企業實際應用中,模型常常需要處理圖文混排的財報、多頁技術文檔、跨文檔知識檢索等復雜任務。這類場景對長上下文語義關聯能力要求極高——模型必須能從大量信息中精準捕捉關鍵內容,忽略無關干擾。
為此,Yuan3.0 Ultra引入了局部過濾注意力機制(Localized Filtering-based Attention,LFA),實現對語義關聯的精準篩選與強化,有效過濾無效注意力干擾,提升模型對長上下文、復雜語義關系的建模能力,從而更準確地理解各種信息來源的脈絡。
從實際效果來看,面對企業級場景中長上下文的圖文混排文檔解析、跨文檔知識檢索、多步驟Agent推理等需求,模型在長文本、復雜結構信息處理中都能保持較高準確率。
核心突破點之三,是升級“有效思考”范式,利用RIRM+RAPO技術體系,減少無效Token。這也是聚焦推理階段另一核心浪費——大模型“過度反思”。
在Agent連續任務鏈中,大模型常常陷入“過度反思”——明明已經得出正確答案,卻還要反復推敲,導致Token消耗成倍增加,響應延遲拉長。這種無效反思在復雜任務中尤為突出,是企業級AI落地的一大成本黑洞。
Yuan3.0 Ultra從強化學習層面入手,通過RIRM+RAPO兩大技術創新根治這一頑疾:
反思抑制獎勵機制(RIRM)就是在萬億參數規模的大規模強化學習中,對反思次數引入精細化獎勵約束,教導模型在復雜企業級任務中,獲得可靠答案后主動停止無效反思,同時保留深度推理能力,從根本上修正“過度思考”行為。
![]()
▲采用優化后的RIRM訓練Yuan3.0 Ultra的動態過程,訓練準確率在整個訓練過程中呈現穩步上升趨勢,平均響應長度隨著訓練的進行逐漸下降
反思感知自適應策略優化算法(RAPO)則針對萬億級MoE模型強化學習訓練不穩定、效率低的行業難題,完成了算法架構的深度優化,進一步提升大規模MoE模型的訓練穩定性與訓練效率。
總體來看,LAEP決定了模型“用多少有效參數去學”、LFA決定了模型“如何精準捕捉有效信息”、RAPO保障了模型“如何穩定高效地學習”、RIRM明確了模型“推理到什么程度該停”。
YuanLab.ai團隊一系列底層模型架構創新,讓萬億級旗艦模型實現了“企業用得起、用得好、能落地”。
二、吃透企業AI應用核心場景,五項關鍵能力出眾
諸多技術創新加持下,Yuan3.0 Ultra在大部分核心企業場景中都有出色表現,用團隊的話來說,Yuan3.0 Ultra從設計階段就針對企業真實應用場景進行能力構建,是一個能夠驅動復雜智能體(Agent)的“核心引擎。
在檢索增強生成(RAG)領域,Yuan3.0 Ultra在ChatRAG、DocMatix等評測中取得領先成績,可以精準定位并利用企業私域知識。
ChatRAG涵蓋長文本檢索、短文本與結構化檢索及維基百科檢索,Yuan3.0 Ultra在這項測試中的平均準確率68.2%,10項任務中9項位居首位。
![]()
在企業實際業務中,大量關鍵信息存在于技術方案、財報報告、行業研究材料等文檔中,這些內容通常包含圖文混排結構、復雜表格以及跨頁面信息關聯,是企業構建知識體系過程的難點。
多模態復雜表格理解評測MMTab覆蓋表格問答、事實核查、長文本表格處理等多個任務類型,Yuan3.0 Ultra在這一測試中以62.3%的平均準確率超越Claude Opus 4.6和Gemini 3.1 Pro。
![]()
在高質量總結生成方面,企業內部知識通常分散在文檔庫、知識庫系統以及業務數據庫中,信息來源復雜且結構不統一,要在這樣的環境中獲取有效信息,不僅需要檢索能力,還需要對多源內容進行語義整合與綜合分析。
在文本摘要生成評測SummEval中,Yuan3.0 Ultra平均精度62.8%,表現出色。這一測試從詞匯重疊、語義相似度與事實一致性三個維度綜合評估摘要質量,是智能體應用中歷史信息壓縮能力的重要參考。
![]()
精通多步驟工具調用與協作,為自動化執行復雜任務打下堅實基礎,是Agent應用關鍵能力,在智能體工具調用方面,Yuan3.0 Ultra表現均衡,在工具調用評測BFCL V3中平均得分67.8%。
![]()
這一測試包含靜態函數選擇、動態實時執行、多輪上下文維護、相關性檢測與無關調用拒絕等維度評估真實工具調用能力。
最后,在企業運營場景中,大量業務決策依賴數據庫查詢、報表分析以及跨系統數據整合,在這些場景下,企業往往需要將業務問題轉化為數據庫查詢,并結合數據結果進行分析與總結。
在考察數據庫查詢語句生成能力的Text-to-SQL評測中,Yuan3.0 Ultra在Spider 1.0及BIRD評測上表現出色。
從綜合測試結果來看,Yuan3.0 Ultra是真正能打的企業大模型。
結語:提升單位算力真實智能密度,打破企業兩難困境
“龍蝦”的火爆讓我們看到了AI給個人和企業帶來的巨大價值潛力,但同樣也讓我們看到了讓AI真正能“干好活”,落地在企業場景所必然要面對的挑戰。
從Flash到Ultra,YuanLab.ai團隊一直在向著這一方向發力,直指企業核心痛點,其技術創新目標很明確:提升單位算力所產生的真實智能密度,讓大模型的能力可以真正轉化為企業可落地、可負擔、可穩定使用的業務價值。
此次Yuan3.0 Ultra推動大模型從“能力展示”走向“規模化落地”,打破了困擾行業已久的成本效率困境。這是YuanLab.ai團隊對下一代基礎大模型結構的又一次探索實踐,給業界MoE大模型結構創新、預訓練算力效率提升提供了新的路徑。
面向未來,AI必將更加深入地與企業業務相結合,在更多真實場景中落地,而底層模型技術的迭代仍將是核心驅動力,YuanLab.ai團隊不僅給技術的探索提供了新思路,也給企業提供了用好AI的更優解。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.