![]()
(AI云資訊消息)英偉達開源大語言模型系列迎來重大升級:最新推出的Nemotron 3 Super現憑借超長上下文窗口,專注于處理智能體AI工作負載。
隨著AI應用像五層蛋糕一樣層層鋪開,英偉達不僅在基礎設施和芯片領域占據主導地位,還是西方少數幾家大力投資開源模型的公司之一。正是在此背景下,英偉達推出了Nemotron 3 Super,主要目標是大規模運行智能體AI應用,使其成為像OpenClaw這樣的智能體的理想選擇。
Nemotron 3 Super的突出亮點在于采用的英偉達混合Mamba-MoE架構。與傳統的混合專家(MoE)模型相比,Mamba的實現方式令人印象深刻。本質上,英偉達改變了大型語言模型解讀數據流的方式。通過這種更新的架構,Mamba依賴狀態空間模型(SSM)來線性地讀取數據,從而避免因構建過大的上下文窗口而引入無關信息。Mamba-MoE架構使Nemotron 3 Super能夠為用戶任務維持一個最優的上下文窗口,從而生成最佳的智能體響應。
Mamba層將內存效率提升了4倍,并具備高級推理能力,這使得Nemotron 3 Super非常適合推理任務。Nemotron 3 Super的另一項引人注目的特性是其高達100萬token的上下文窗口,這個規模是Kimi 2.5模型上下文窗口的4倍。在智能體系統中存在一個普遍規律:上下文窗口越大,響應效果越好。正因如此,僅從這一方面來看,Nemotron 3 Super就超越了所有其他開源大語言模型,并且即使其參數量限制在1200億,其性能也已接近Opus 4.5等模型。
![]()
說到OpenClaw,英偉達在評估智能體工作負載的測試套件PinchBench上對Nemotron 3 Super進行了測試。該模型在整個測試套件中取得了85.6%的得分,超越了Opus 4.5、Kimi 2.5和GPT-OSS 120b。對于通過OpenClaw運行大量任務的用戶來說,Nemotron 3 Super開啟了一個全新的性能等級,而其算力需求僅需單張GPU即可滿足。
Nemotron 3 Super只是一個例證,展示了未來智能體AI系統將變得何等廣泛和深入。另外,大語言模型如今也正在突破算力限制,這使得模型在邊緣端部署的未來比以往任何時候都更加光明。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.