![]()
![]()
![]()
2026年1月25日,Ollama 發(fā)布了最新版本v0.15.1。這一版本在性能優(yōu)化、工具集成、跨平臺兼容性和文檔完善方面帶來了顯著提升,標志著該項目在本地大模型運行環(huán)境上的又一次重要進步。本文將帶你全面了解此版本的全部更新點。
一、GLM-4.7-Flash 模型優(yōu)化
本次更新對GLM-4.7-Flash模型進行了大幅性能優(yōu)化與正確性修復,解決了部分重復回答與工具調(diào)用質(zhì)量問題。同時,在量化策略上進行了改進:
? 量化更多張量為
q8_0格式。? 避免了雙重 BOS Token 的問題。
? 修復了注意力機制中
scale計算的錯誤,提升注意力計算精度和生成穩(wěn)定性。
此外,server/quantization.go中針對多頭注意力(MLA)相關權重進行了精度提升,確保模型在高壓縮量化下仍能保持高質(zhì)量輸出。
二、跨平臺性能改進
Ollama v0.15.1 修復了macOS與arm64 Linux上的性能問題,并在各平臺構建腳本中增加了高效優(yōu)化編譯參數(shù):
?CGO 優(yōu)化標志:增加
-O3編譯優(yōu)化。?macOS 構建腳本(scripts/build_darwin.sh):
啟用-O3優(yōu)化并保持-mmacosx-version-min限定版本。?Windows 構建腳本(scripts/build_windows.ps1):
若沒有手動設置,會自動為CGO_CFLAGS與CGO_CXXFLAGS添加-O3優(yōu)化。
這些改動顯著提升了編譯后可執(zhí)行文件的運行效率。
三、工具集成:Claude 與 OpenCode 全新增強
本次更新最大亮點之一,是對Claude Code與全新集成項目OpenCode的支持完善。
1. Claude Code 一鍵啟動優(yōu)化
? 新增
ollama launch claude命令的智能路徑檢測機制:
可在系統(tǒng) PATH 未找到claude時自動回退查找~/.claude/local/claude(Windows 系統(tǒng)為claude.exe)。? 若仍無法找到,將提示用戶從官方站點下載安裝。
? 測試文件
claude_test.go覆蓋了 PATH 檢測、fallback 查找以及異常路徑三種場景,確保健壯性。
新版本引入了OpenCode這一開源終端 AI 編碼助手,并提供完整的 Ollama 集成方案。
命令行支持:
ollama launch opencode或僅配置不啟動:
ollama launch opencode --config配置文件(~/.config/opencode/opencode.json)示例中默認支持添加本地與云端模型:
? 本地模型示例:
qwen3-coder? 云端模型示例:
glm-4.7:cloud
對應邏輯實現(xiàn)涵蓋:
? 避免重復條目;
? 保留用戶自定義字段;
? 自動將舊
[Ollama]后綴條目遷移為_launch標記;? 精確區(qū)分由 Ollama 管理的模型條目。
文檔提供了詳細 CLI 使用說明:
ollama launch支持的集成:
? OpenCode – 開源代碼助手
? Claude Code – Anthropic 編碼智能體
? Codex – OpenAI 編碼助手
? Droid – Factory AI 編碼代理
可快速使用指定模型和配置項:
ollama launch claude --model qwen3-coder
ollama launch droid --config五、文檔體系大躍進文檔部分更新極為豐富,幫助開發(fā)者快速上手并接入主流開發(fā)工具,主要包括以下幾個方面:
1. Anthropic API 兼容性更新
? 明確推薦模型:
glm-4.7,minimax-m2.1,qwen3-coder。? 環(huán)境變量統(tǒng)一使用:
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_API_KEY=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434? 新增對
ollama launch claude自動配置的說明。
上下文窗口默認推薦調(diào)整至64000 tokens,更適用于 web 搜索、AI agents 和大型代碼模型。
設置示例:
OLLAMA_CONTEXT_LENGTH=64000 ollama serve3. Quickstart 新增編程模型說明? 推薦使用
glm-4.7-flash作為本地編程模型(23GB 顯存需求)。? 支持云模型
glm-4.7:cloud。? 新增 “快速接入編程助手” 分節(jié),引導使用
ollama launch快速集成多款工具。
?
README.md替換為更受歡迎的 Ruby 客戶端鏈接。?
Dockerfile和app/README.md更新增加-O3優(yōu)化參數(shù)。? 修復啟動時Claude 檢測失敗及OpenCode 配置誤更新問題。
代碼地址:github.com/ollama/ollama
Ollama v0.15.1 是一次全方位的優(yōu)化版本,重點圍繞以下核心展開:
?性能與精度升級:GLM-4.7-Flash 模型深度優(yōu)化。
?跨平臺支持增強:macOS 與 Linux arm64 性能修復,構建優(yōu)化全面升級。
?生態(tài)集成擴展:新增 OpenCode 一鍵集成,完善 Claude 啟動邏輯。
?開發(fā)體驗提升:CLI 命令增強與文檔體系全面進化。
這次更新不僅讓 Ollama 在模型執(zhí)行效率上更進一步,也讓其在 AI 編程助手生態(tài)中更具連接性與易用性。
總結
Ollama v0.15.1 不只是一次修復版本,而是一場性能、生態(tài)與開發(fā)體驗的綜合升級。從模型底層優(yōu)化到工具鏈集成,從跨平臺編譯加速到文檔統(tǒng)一更新,這次迭代讓 Ollama 離“本地通用 AI 工作平臺”的愿景更近了一步。
我們相信人工智能為普通人提供了一種“增強工具”,并致力于分享全方位的AI知識。在這里,您可以找到最新的AI科普文章、工具評測、提升效率的秘籍以及行業(yè)洞察。 歡迎關注“福大大架構師每日一題”,發(fā)消息可獲得面試資料,讓AI助力您的未來發(fā)展。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.