![]()
![]()
![]()
一、版本總覽:Ollama v0.18.3,2026年3月26日正式上線
2026年3月26日,開源本地大模型管理工具Ollama正式發布v0.18.3版本,這是Ollama在AI開發工具集成領域的一次里程碑式升級。本次更新核心聚焦VS Code深度原生集成與Agent模式能力開放兩大核心功能,同時完成多項底層優化與Bug修復,進一步強化了本地大模型在開發場景中的實用性與穩定性。
從版本更新數據來看,本次v0.18.3版本由8位貢獻者共同參與,累計提交22次代碼提交,涉及83個文件修改,覆蓋從核心功能開發、文檔更新到底層引擎優化的全流程,是一次功能與穩定性并重的全面升級。
二、核心功能一:Ollama原生啟動VS Code,本地模型無縫融入開發環境 2.1 功能核心:一行命令打通Ollama與VS Code
Ollama v0.18.3最重磅的更新,是實現了Ollama直接啟動VS Code的原生能力,開發者無需額外配置復雜的插件或中間件,僅需一行命令即可完成Ollama與VS Code的深度綁定,讓本地大模型成為VS Code開發環境的原生組成部分。
啟動命令極為簡潔,在終端中輸入以下任意一條命令即可:
ollama launch vscode
# 或
ollama launch code執行命令后,Ollama會自動完成與VS Code的連接配置,無需手動修改VS Code設置或安裝第三方擴展,即可在VS Code中直接調用本地部署的所有Ollama模型。
2.2 操作流程:三步在VS Code中使用Ollama模型
命令執行完成后,開發者可通過以下三步,在VS Code的Copilot Chat中無縫使用Ollama本地模型,實現AI輔助編碼:
1. 打開Copilot Chat :在VS Code中打開Copilot Chat界面,macOS系統使用快捷鍵
Ctrl+Cmd+I,Windows/Linux系統使用快捷鍵Ctrl+Alt+I;2. 選擇模型選擇器 :在Copilot Chat的輸入框上方,找到并點擊 模型選擇器 (Model Picker);
3. 選擇Ollama模型 :在模型選擇器中點擊 Other models (其他模型)選項,即可在列表中找到所有本地部署的Ollama模型,選擇后即可開始使用本地或云端模型進行編碼輔助。
這一流程徹底簡化了本地大模型與VS Code的集成步驟,此前開發者需手動安裝Continue、Copilot Chat等擴展并配置模型地址,而Ollama v0.18.3通過原生集成,將這一過程壓縮為一行命令+三步操作,大幅降低了本地AI開發的使用門檻。
2.3 功能價值:本地模型+VS Code,打造私有化AI開發環境
Ollama原生啟動VS Code的核心價值,在于為開發者提供了私有化、離線化、可定制的AI開發環境:
? 數據安全 :所有代碼交互與模型推理均在本地完成,無需將代碼上傳至云端,徹底解決企業與個人開發者的代碼隱私顧慮;
? 離線可用 :無需依賴網絡連接,即可在無網環境下使用本地模型進行代碼生成、調試與優化,適配離線開發場景;
? 模型自由 :支持所有Ollama兼容的本地模型(如Llama 3、Qwen、DeepSeek-Coder等),開發者可根據需求選擇輕量級或高性能模型,無需受限于云端模型的選擇范圍;
? 無縫協同 :與VS Code原生功能深度融合,支持代碼補全、錯誤修復、文檔生成等全場景開發輔助,無需在多個工具間切換。
Ollama v0.18.3正式開放Agent模式,這一功能讓Ollama能夠借助VS Code的Agent模式能力,自主執行命令、編輯文件、迭代代碼,從單純的“問答式AI助手”升級為“可行動的開發智能體”,大幅提升AI在開發流程中的自動化能力。
簡單來說,Agent模式下的Ollama不再局限于“你問我答”,而是可以根據開發者的指令,直接操作VS Code完成一系列開發任務,例如運行測試、修復Bug、生成文檔、修改代碼等,實現開發流程的自動化與智能化。
3.2 實用指令:Agent模式下的高頻開發指令示例
Agent模式支持開發者通過自然語言指令,讓Ollama自主完成復雜開發任務,以下是本次更新中官方推薦的高頻實用指令,覆蓋測試、文檔、代碼生成三大核心場景:
1. 測試相關指令 :
? “Run the tests and fix any failures”(運行測試并修復所有失敗用例):Ollama會自動運行項目測試,定位失敗原因,直接修改代碼修復問題;
? “Generate unit tests for this file”(為當前文件生成單元測試):自動分析當前文件的代碼邏輯,生成覆蓋核心功能的單元測試代碼;
2. 文檔相關指令 :
? “Update the README with the new API changes”(根據新的API變更更新README文檔):自動識別項目API的更新內容,同步修改README文檔,確保文檔與代碼一致;
3. 代碼迭代指令 :
? 支持“優化當前函數性能”“重構代碼結構”“添加注釋”等自定義指令,Ollama會根據指令自主編輯代碼文件,完成迭代優化。
Agent模式的推出,徹底改變了本地大模型在開發中的角色,核心優勢體現在三個方面:
? 任務自動化 :將開發者從重復、繁瑣的開發任務中解放,例如測試修復、文檔更新、代碼生成等,大幅提升開發效率;
? 上下文感知 :基于VS Code的項目上下文,Ollama可精準理解項目結構、代碼邏輯與開發需求,執行的操作更貼合實際開發場景;
? 全流程協同 :從代碼編寫、測試到文檔維護,Agent模式覆蓋開發全流程,實現AI與開發工具的深度協同,打造“一站式”智能開發體驗。
除了VS Code集成與Agent模式兩大核心功能,Ollama v0.18.3還完成了多項底層優化與集成能力增強,覆蓋工具調用解析、第三方集成、引擎修復、功能完善等多個維度,進一步夯實了Ollama的穩定性與兼容性。
4.1 工具調用優化:GLM解析器升級,提升工具調用穩定性
本次更新對GLM解析器進行了專項優化,重點提升了模型工具調用(Tool Calls)的解析能力與穩定性。GLM解析器是Ollama處理模型工具調用請求的核心組件,優化后可更精準地解析模型輸出的工具調用指令,減少解析錯誤與格式異常,確保Agent模式下的命令執行、文件操作等功能穩定運行,為Agent模式的落地提供了底層支撐。
4.2 第三方集成增強:OpenClaw集成優化,完善網關檢查邏輯
Ollama v0.18.3對OpenClaw集成進行了深度優化,重點改進了網關檢查(Gateway Checks)的邏輯與穩定性。OpenClaw是Ollama的重要第三方集成組件,用于實現模型的聯網搜索、外部服務調用等能力,本次優化后:
? 網關健康檢查邏輯更健壯,可適配不同網絡環境與部署場景;
? 修復了無守護進程安裝時的網關檢查冗余問題,減少不必要的系統資源消耗;
? 提升了OpenClaw與Ollama核心服務的協同效率,確保聯網能力穩定可用。
針對MLX Runner(Ollama的核心推理引擎之一),本次更新修復了多項關鍵問題,同時優化了緩存機制與推理性能:
1. 修復Slice(0, 0)返回異常 :修復了MLX Runner中
Slice(0, 0)操作返回完整維度而非空維度的Bug,確保張量操作的準確性;2. KV緩存共享優化 :實現了 KV緩存跨會話共享 ,對于具有公共前綴的對話會話,可復用已緩存的KV數據,大幅降低重復推理的內存消耗與時間成本;
3. 緩存管理增強 :支持純Transformer緩存的部分匹配,優化緩存命中率;在緩存轉儲樹中顯示“上次使用時間”,方便開發者監控緩存狀態;修復了雙重取消固定(double unpin)導致的panic問題,提升引擎穩定性;
4. 格式支持擴展 :新增mxfp4、mxfp8、nvfp4等量化格式的導入支持,適配更多量化模型,提升本地推理的兼容性。
本次更新還完成了多項功能完善與Bug修復,覆蓋桌面應用、日志系統、CI流程、交互界面等多個維度:
1. 桌面應用修復 :修復了OLLAMA_HOST配置為未指定地址時,桌面應用 stuck加載的問題,提升桌面端兼容性;
2. 日志系統優化 :新增調試請求日志開關,支持開啟詳細的請求日志記錄,方便開發者排查問題;修復了MLX子進程日志死鎖問題,確保日志輸出穩定;
3. 交互界面優化 :TUI(終端交互界面)的模型選擇器新增左箭頭返回導航功能,提升終端操作的便捷性;
4. CI流程修復 :修復了Windows平臺下CGO編譯器錯誤,確保CI/CD流程在Windows環境下穩定運行;
5. 配置優化 :launch模塊新增“模型未變更時跳過冗余配置寫入”邏輯,減少不必要的磁盤IO,提升啟動效率;
6. API修復 :修復了api/show模塊中Copilot Chat的basename覆蓋問題,確保模型信息展示準確。
為配合新功能上線,Ollama官方同步更新了文檔內容,重點完善了第三方集成與使用指南:
? 更新Claude Code相關文檔,新增Telegram集成指南,擴展Claude模型的使用場景;
? 新增Nemoclaw集成文檔,完善OpenClaw生態的使用說明;
? 更新OpenClaw的Web搜索相關文檔,明確聯網能力的使用方法與配置細節。
Ollama v0.18.3版本的代碼提交覆蓋2026年3月18日至3月25日,以下按時間線完整梳理所有提交內容,確保無遺漏:
5.1 3月18日提交
1. 文檔更新:更新Claude代碼與OpenClaw的Web搜索相關內容;
2. 配置優化:cmd/launch模塊新增“模型未變更時跳過冗余配置寫入”邏輯;
3. MLX Runner修復:修復
Slice(0, 0)返回異常問題;4. MLX Runner優化:實現KV緩存跨會話共享(公共前綴復用)。
1. 桌面應用修復:修復OLLAMA_HOST未指定時桌面應用加載卡住問題;
2. 工具解析優化:parsers模塊新增健壯的XML工具修復功能,提升工具調用穩定性。
1. 功能新增:新增調試請求日志開啟功能;
2. MLX修復:修復子進程日志死鎖問題;
3. MLX Runner修復:修復done通道值被第一個接收者消費的問題;
4. OpenClaw優化:launch模塊新增“無守護進程安裝時跳過OpenClaw網關健康檢查”邏輯;
5. 文檔更新:新增Nemoclaw集成文檔。
1. MLX更新:同步更新MLX引擎至3月23日版本;
2. 文檔更新:更新Claude Code文檔,新增Telegram集成指南。
1. MLX Runner優化:支持純Transformer緩存的部分匹配;
2. MLX Runner優化:緩存轉儲樹中顯示“上次使用時間”;
3. MLX Runner修復:修復雙重取消固定導致的panic問題;
4. 格式支持:新增mxfp4、mxfp8、nvfp4量化格式導入支持;
5. 測試優化:提升單個模型的測試能力;
6. CI修復:修復Windows平臺CGO編譯器錯誤。
1. TUI優化:模型選擇器新增左箭頭返回導航功能;
2. 核心功能開發:實現ollama launch vscode核心功能;
3. API修復:修復api/show模塊中Copilot Chat的basename覆蓋問題。
代碼地址:bgithub.xyz/ollama/ollama
Ollama v0.18.3版本的發布,標志著本地大模型在開發工具集成領域進入了全新階段。本次更新通過VS Code原生集成與Agent模式開放兩大核心功能,徹底打通了本地大模型與主流開發編輯器的壁壘,讓私有化、離線化的AI開發成為現實;同時,底層引擎的全面優化、第三方集成的增強以及多項Bug修復,進一步提升了Ollama的穩定性與實用性。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.