![]()
![]()
![]()
2026年3月14日,ollama v0.18.0正式發(fā)布,這是一次極具里程碑意義的版本更新。本次更新圍繞云模型、集成啟動(dòng)、Claude代碼支持、OpenAI兼容接口、命令行體驗(yàn)及中間件處理能力等多個(gè)維度進(jìn)行了系統(tǒng)優(yōu)化和重大改進(jìn)。無(wú)論是使用本地模型還是云端大模型的開(kāi)發(fā)者,都能在此版本中獲得更加流暢、智能和安全的體驗(yàn)。
以下為本次v0.18.0版本的詳細(xì)更新內(nèi)容與技術(shù)解讀。
一、核心亮點(diǎn)綜述
1.云模型全面接入:
? 現(xiàn)在無(wú)需通過(guò)
ollama pull下載云模型,只需在模型名稱后添加:cloud標(biāo)簽,即可自動(dòng)連接云端模型。? 系統(tǒng)在調(diào)用
ollama run時(shí),會(huì)自動(dòng)拉取云模型的“stub”信息,完成兼容性適配。? 改進(jìn)了模型源的傳播邏輯,在創(chuàng)建云模型衍生版本時(shí)維護(hù)明確的來(lái)源標(biāo)識(shí)。
2.Claude代碼增強(qiáng):
? 新增支持設(shè)置Compaction Window(壓縮窗口)功能,針對(duì) Claude Code 云模型自動(dòng)設(shè)定窗口大小以優(yōu)化上下文處理。
? 對(duì) Claude 本地與云模型環(huán)境變量裝載進(jìn)行了精細(xì)優(yōu)化,確保自動(dòng)選擇正確模型與上下文。
3.OpenAI兼容API增強(qiáng):
? 文檔新增了
reasoning_effort參數(shù)支持說(shuō)明,可在推理型模型中控制推理強(qiáng)度("high"、"medium"、"low"、"none")。? 完善了推理/thinking控制字段,實(shí)現(xiàn)對(duì)推理模型的細(xì)粒度策略控制。
4.命令行功能升級(jí):
? 改進(jìn)模型排序及啟動(dòng)行為,優(yōu)化 TUI(終端交互界面)中的選項(xiàng)邏輯。
? “--yes” 無(wú)頭模式強(qiáng)化:在不交互的環(huán)境中可自動(dòng)批準(zhǔn)并拉取缺失模型。
? 新增云模型檢測(cè)與自動(dòng)補(bǔ)全機(jī)制,使顯式云模型在列表中同樣被
ollama ls正確識(shí)別。
5.中間件與服務(wù)器改進(jìn):
?
middleware層在處理非 JSON 錯(cuò)誤時(shí)可自動(dòng)回退字節(jié)錯(cuò)誤提示,避免解析錯(cuò)誤干擾。? 新增 zstd 解壓支持,在云代理中間件可自動(dòng)解碼壓縮請(qǐng)求體,實(shí)現(xiàn)高效傳輸。
? 限制最大解壓后體積(20MB),防止超大請(qǐng)求導(dǎo)致資源消耗。
? 改進(jìn)云代理 passthrough 流程,檢測(cè)
Content-Encoding: zstd并清除標(biāo)頭后運(yùn)行。
在cmd/cmd.go中,新增加了ensureCloudStub函數(shù),用于匹配傳統(tǒng)ollama run some-model:cloud的行為。當(dāng)用戶顯式指定云源模型時(shí),系統(tǒng)會(huì)自動(dòng)嘗試?yán)?duì)應(yīng)的云 stub 文件。此步驟保證即便本地未緩存模型,也能正常啟動(dòng)連接。
命令行的執(zhí)行流程現(xiàn)在支持:
? 自動(dòng)標(biāo)準(zhǔn)化模型名;
? 若云模型 stub 不存在則自動(dòng)下載;
? 若下載失敗不會(huì)中斷生成,而是以“盡力而為”方式繼續(xù)任務(wù)。
測(cè)試文件cmd/cmd_test.go增加了多組驗(yàn)證用例:
? 當(dāng)顯式云模型 stub 缺失時(shí),系統(tǒng)會(huì)拉取標(biāo)準(zhǔn)化命名;
? 若 stub 已存在,則跳過(guò)下載;
? 即使下載失敗,仍繼續(xù)調(diào)用
/api/generate保證生成任務(wù)不受影響。
此外,新增針對(duì)云模型繼承關(guān)系的測(cè)試場(chǎng)景:
在NewCreateRequest中,當(dāng)啟動(dòng)會(huì)話以:cloud結(jié)尾時(shí),父模型若無(wú) cloud 來(lái)源,則自動(dòng)清理父模型標(biāo)記,防止錯(cuò)誤地創(chuàng)建本地衍生版本。
(二)Claude啟動(dòng)模塊增強(qiáng)
cmd/launch/claude.go的modelEnvVars函數(shù)進(jìn)行了重構(gòu):
? 現(xiàn)在返回的環(huán)境變量中包含
CLAUDE_CODE_AUTO_COMPACT_WINDOW,用于自動(dòng)根據(jù)云模型上下文大小設(shè)置 Claude Code 的壓縮窗口。? 若模型為云模型,會(huì)通過(guò)查表機(jī)制獲得合適的上下文限制值并自動(dòng)寫(xiě)入環(huán)境變量。
對(duì)應(yīng)測(cè)試cmd/launch/claude_test.go校驗(yàn):
? 本地模型不會(huì)生成該變量;
? 云模型能正確設(shè)定窗口值(例:
glm-5:cloud對(duì)應(yīng)202752);? 未知云模型不會(huì)寫(xiě)入壓縮窗口參數(shù),保持空值。
該改動(dòng)顯著提升了 Claude 在多模型之間切換時(shí)的記憶穩(wěn)定性與上下文利用率。
(三)Launch命令與策略優(yōu)化
在launch.go中,新增了對(duì)LaunchPolicy的升級(jí):
1. 將默認(rèn)策略函數(shù)改造為
defaultLaunchPolicy(interactive, yes bool);2. 當(dāng)帶有
--yes標(biāo)記時(shí)(包括非交互環(huán)境),自動(dòng)將確認(rèn)模式設(shè)為“自動(dòng)批準(zhǔn)”,缺失模型策略設(shè)為“自動(dòng)拉取”。
而在無(wú)交互且未指定 yes 的場(chǎng)景,則強(qiáng)制要求明確輸入并在模型缺失時(shí)失敗退出。
同時(shí),在無(wú)頭模式下,--yes啟動(dòng)時(shí)增加安全檢查:
若用戶未顯式指定 --model 參數(shù),則命令會(huì)直接報(bào)錯(cuò)提示 —— “requires --model ”,確保自動(dòng)化執(zhí)行不會(huì)錯(cuò)誤啟動(dòng)。
另一個(gè)重要改進(jìn)點(diǎn)是:
在無(wú)交互但帶有自動(dòng)批準(zhǔn)模式時(shí),系統(tǒng)會(huì)自動(dòng)選擇“上次使用的模型”進(jìn)行運(yùn)行。
這項(xiàng)優(yōu)化避免了腳本化任務(wù)中因模型選擇項(xiàng)缺失導(dǎo)致的中斷。
測(cè)試launch_test.go對(duì)此功能給出充分驗(yàn)證:
? 模擬無(wú)交互
--yes場(chǎng)景時(shí),系統(tǒng)能自動(dòng)選用上次運(yùn)行模型;? 若模型不存在會(huì)自動(dòng)拉取;
? 日志中輸出明確指示“Headless mode: auto-selected last used model”。
更新后的buildModelList和 TUI 選擇器邏輯增強(qiáng)了“本地與云模型的精確匹配”機(jī)制:
? 當(dāng)存在本地與云端同名模型時(shí),系統(tǒng)優(yōu)先匹配完全相同的名稱;
? 若本地正好為“qwen3.5”,則不會(huì)誤選“qwen3.5:cloud”作為當(dāng)前;
? 同時(shí)在 TUI 渲染中保證高亮顯示準(zhǔn)確,提升人工交互選擇的直覺(jué)性。
在selector.go的cursorForCurrent函數(shù)中新增兩階段匹配邏輯:
1. 優(yōu)先匹配完全相同的模型名;
2. 其次才考慮前后綴形式(例如
"qwen3.5:cloud"與"qwen3.5")。
與此同時(shí),multiSelectorModel.toggleItem也進(jìn)行了升級(jí):
? 當(dāng)取消默認(rèn)選中模型時(shí),會(huì)自動(dòng)尋找最近的已選項(xiàng)作為新的默認(rèn)項(xiàng);
? 若上方無(wú)選項(xiàng),則尋找到最近下方項(xiàng);
? 保持列表穩(wěn)定,防止失焦?fàn)顟B(tài)。
這些修改使得多模型選擇流程更自然、更合理,尤其在編輯器集成與多模型協(xié)作場(chǎng)景下顯著提升使用體驗(yàn)。
(五)中間件處理與錯(cuò)誤容錯(cuò)升級(jí)
在middleware/anthropic.go與middleware/openai.go中,對(duì)錯(cuò)誤響應(yīng)處理進(jìn)行了安全回退改造:
? 當(dāng)收到非標(biāo)準(zhǔn) JSON 錯(cuò)誤響應(yīng)時(shí),系統(tǒng)不再直接返回解析錯(cuò)誤,而是將原始字節(jié)內(nèi)容作為錯(cuò)誤信息。
? 避免了反復(fù)出現(xiàn)在日志中的 JSON Unmarshal 錯(cuò)誤提示。
同時(shí),新增maxDecompressedBodySize限制(20MB),并在云代理層引入 zstd 解壓與體積控制。
在云代理 (server/cloud_proxy.go) 中:
? 增加 zstd 解碼器,當(dāng)請(qǐng)求中包含
Content-Encoding: zstd時(shí)會(huì)自動(dòng)解壓;? 完成解壓后移除該頭部,防止后續(xù)邏輯誤判;
? 對(duì)超大解壓體積請(qǐng)求返回
400 Bad Request,保護(hù)系統(tǒng)資源安全。
測(cè)試cloud_proxy_test.go中驗(yàn)證了完整流程:
? 壓縮請(qǐng)求體能被正確解碼,middleware 成功檢測(cè)到
"model":"test-model:cloud";? 超大體積請(qǐng)求觸發(fā)安全響應(yīng)。
該系列優(yōu)化讓 ollama 在云代理鏈路中面對(duì)混合編碼響應(yīng)時(shí)更加穩(wěn)定與高效。
(六)OpenAI兼容接口文檔與推理控制更新
在docs/openai_compat.md和相關(guān)實(shí)現(xiàn)層中,v0.18.0對(duì) OpenAI 兼容性接口進(jìn)行了進(jìn)一步完善,使得 ollama 的 OpenAI 格式推理 API(/v1/chat/completions與/v1/completions)與主流云模型的適配更加完整。
1. 新增參數(shù):reasoning_effort
? 新參數(shù)可選值包括
"none","low","medium","high"。? 用于控制推理模型(如思維鏈推理、邏輯規(guī)劃類模型)的計(jì)算與思考強(qiáng)度。
? 低模式下優(yōu)先快速返回結(jié)果,高模式下傾向進(jìn)行更多內(nèi)部推理步驟。
? 新增
thinking字段支持,當(dāng)模型提供內(nèi)部推理痕跡時(shí)可通過(guò)專有 schema 輸出。? 增加了兼容
X-Ollama-Thinking等 HTTP 頭的能力,以保障流式響應(yīng)過(guò)程中推理過(guò)程的透明性。
在middleware/openai_test.go與api/openai_test.go中新增多組用例,確保:
? 當(dāng)啟用
reasoning_effort=high時(shí)返回延時(shí)與token消耗可控;? JSON 響應(yīng)完全符合 OpenAI SDK 解析標(biāo)準(zhǔn);
? 測(cè)試覆蓋了 “system + user + tool_calls” 等復(fù)雜對(duì)話格式。
這一系列改進(jìn)意味著從 v0.18.0 開(kāi)始,ollama 的 OpenAI 接口可作為外部應(yīng)用無(wú)縫接入的通用標(biāo)準(zhǔn)接口,不論使用哪種模型后端(本地或云端)都無(wú)需修改調(diào)用邏輯。
三、總結(jié)與升級(jí)建議
ollama v0.18.0是一次打通本地模型與云模型交互壁壘的關(guān)鍵版本。
從底層結(jié)構(gòu)到開(kāi)發(fā)者體驗(yàn),它實(shí)現(xiàn)了三大躍遷:
1.模型來(lái)源統(tǒng)一:同一個(gè)命令可同時(shí)使用本地模型與 cloud 模型,告別傳統(tǒng) pull/push 流程。
2.生態(tài)兼容全面:OpenAI、Claude、Anthropic 多線兼容,同步增強(qiáng)上下文與推理控制。
3.開(kāi)發(fā)體驗(yàn)優(yōu)化:交互界面、命令行無(wú)頭模式、中間件鏈路、壓縮與安全控制全面升級(jí)。
對(duì)于開(kāi)發(fā)者的建議:
? 若你使用腳本自動(dòng)部署或服務(wù)端生成任務(wù),可開(kāi)啟
--yes模式并顯式指定--model參數(shù)。? 若你是 Claude Code 用戶,請(qǐng)注意新的
CLAUDE_CODE_AUTO_COMPACT_WINDOW環(huán)境變量,可顯著改善上下文利用率。? 若接入 OpenAI SDK,可直接指向
http://localhost:11434/v1,獲得最佳兼容體驗(yàn)。
代碼地址:github.com/ollama/ollama
ollama v0.18.0 通過(guò)云端智能接入與全棧優(yōu)化,正在重塑「本地 + 云」混合大模型體驗(yàn)。
無(wú)論你是熱衷本地推理的開(kāi)發(fā)者,還是依賴多云 LLM 的企業(yè)團(tuán)隊(duì),這一版本都為你提供了更自由、更安全、更高效的模型運(yùn)行方式。
我們相信人工智能為普通人提供了一種“增強(qiáng)工具”,并致力于分享全方位的AI知識(shí)。在這里,您可以找到最新的AI科普文章、工具評(píng)測(cè)、提升效率的秘籍以及行業(yè)洞察。 歡迎關(guān)注“福大大架構(gòu)師每日一題”,發(fā)消息可獲得面試資料,讓AI助力您的未來(lái)發(fā)展。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.