![]()
![]()
![]()
一、版本發布概覽
2026年2月6日,ollama 推出了v0.15.5最新版本。本次更新在模型陣容、性能優化和開發者體驗多個層面上都有實質性突破,尤其是對多模型協作、上下文管理和本地開發流程的深度優化,為開發者提供更高效、更智能的調用體驗。
二、新增模型:Qwen3-Coder-Next與GLM-OCR
1. Qwen3-Coder-Next
這是來自阿里巴巴 Qwen 團隊的全新編碼型語言模型,專注于智能代碼生成與本地開發代理工作流。該模型在代碼理解、自動補全和多步驟代理執行方面進行了全面優化,特別適用于需要持續上下文調用的開發者場景。
2. GLM-OCR
GLM-OCR 是一款多模態文檔理解 OCR 模型,基于 GLM-V 編碼-解碼架構構建,聚焦于復雜文檔的圖像—文本解析任務。該模型的引入使 ollama 能夠支持更復雜的視覺+文本混合輸入,適配文檔、表單等應用。
三、ollama launch 功能改進
1. 支持參數傳入
現在可在啟動時直接提供模型參數,例如:
ollama launch claude -- --resume允許用戶在啟動模型時追加自定義指令或運行參數。
2. 支持子代理運行
在執行ollama launch claude等命令時,系統可運行子代理(sub-agent),支持多層規劃、深度研究與協同任務執行。
3. 優化上下文自動設定
當使用ollama launch opencode時,系統將根據模型類型自動設置上下文上限,避免代碼模型調用時內存溢出或性能下降。
四、VRAM分級上下文長度新機制
根據顯存容量,ollama 將默認采用分級上下文長度:
VRAM容量
默認上下文長度
< 24 GiB
4,096 context
24–48 GiB
32,768 context
≥ 48 GiB
262,144 context
這一機制確保了不同硬件環境下的最優模型加載性能,充分利用 GPU 資源。
五、核心引擎與交互改進
1. GLM-4.7-Flash 支持
在實驗性 MLX 引擎中新增對GLM-4.7-Flash的支持,進一步提高模型推理速度與壓縮能力。
2. ollama signin 瀏覽器登錄優化
執行ollama signin時將自動打開瀏覽器窗口,簡化登錄流程并直接跳轉至連接頁面。
六、錯誤與穩定性修復
? 修復
num_predict參數出現的 off-by-one 錯誤,保證預測的 Token 數量準確。? 修復上一次序列的 Token 誤返回問題。
? 改進加載請求的錯誤提示,使問題更易定位。
? 優化
chatPrompt機制以減少不必要的 Token 化調用,提高響應效率。? 修復當批次中序列被替換時計算結果錯誤的情況,保證推理穩定性。
? 新增對遠程模型的錯誤提示,使遠程調用過程更清晰易調試。
? 默認為 Qwen3-Next 與 LFM 模型設置
parallel=1,保證推理序列一致性。? 增強 macOS 平臺支持,
install.sh腳本現可在 macOS 系統中直接執行。?
ollama launch命令進一步優化執行邏輯,改進參數和上下文管理機制。? 云端模型在
opencode模式下可自動設置上下文限制,提高云端并行調用穩定性。
ollama v0.15.5是對開發者體驗和模型性能的雙重升級版本。核心亮點包括:
?雙新模型接入:Qwen3-Coder-Next、GLM-OCR
?Sub-agent 支持與參數化啟動機制完善
?顯存分級上下文長度智能設定
?GLM-4.7-Flash 實驗性引擎支持
?登錄與錯誤提示體驗優化
?跨平臺支持與穩定性增強
這一版本不僅提升了大規模模型在多任務環境下的執行效率,也進一步降低了開發者的使用門檻。無論是代碼生成、文檔識別還是多代理協作,ollama v0.15.5 都為智能化的本地開發提供了強勁的動力。
結語:
代碼地址:github.com/ollama/ollama
ollama v0.15.5 是一次面向開發者生態的核心進化。從模型到體驗,它體現了開源 LLM 平臺的持續迭代與深度融合趨勢,為構建更強大的智能開發環境奠定了堅實基礎。
我們相信人工智能為普通人提供了一種“增強工具”,并致力于分享全方位的AI知識。在這里,您可以找到最新的AI科普文章、工具評測、提升效率的秘籍以及行業洞察。 歡迎關注“福大大架構師每日一題”,發消息可獲得面試資料,讓AI助力您的未來發展。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.