![]()
![]()
![]()
2026年1月16日,Ollama v0.14.2正式發布。這次版本更新不僅帶來了新的翻譯模型集,還在接口規范與交互體驗上進行了大幅提升,進一步鞏固了Ollama在開源大模型生態中的核心地位。以下是詳細更新內容與技術亮點:
一、全新模型:TranslateGemma開放多語言翻譯支持
Ollama v0.14.2推出了全新TranslateGemma模型系列。這一系列翻譯模型基于Gemma 3架構構建,支持55種語言互譯,旨在幫助全球用戶打破語言壁障,實現跨語言交流。
TranslateGemma是Ollama針對跨語言任務優化的一類開放模型,標志著Ollama在多語言理解和生成能力上的進一步擴展。
二、功能優化與改進 1. CLI交互優化 —— 支持多行輸入
Ollama命令行(CLI)現在新增了更簡潔直觀的交互方式:
?按下 Shift + Enter 可換行輸入;
? 普通 Enter 鍵則用于發送消息;
? 在交互模式中增加了新提示:“Press Enter to send”,讓多行輸入更自然。
這一改進使開發者編寫長指令或復合Prompt更加方便,提升人機交互體驗。
2./v1/responsesAPI優化
Ollama進一步改進了/v1/responses接口,使其更好地符合OpenResponses規范。該更新提升了API一致性與兼容性,對于使用Ollama搭建AI應用服務的開發者而言,這意味著更高的穩定性與標準化支持。
三、構建新指南:實驗性MLX支持全面上線
此次版本新增了**“Building with MLX(experimental)”章節,為想要探索Ollama與MLX庫(機器學習加速框架)**集成的開發者提供完整構建步驟。
構建過程包括:
1.編譯MLX庫:
.
cmake --preset MLX
cmake --build --preset MLX --parallel
cmake --install build --component MLX2.編譯帶MLX功能的Ollama運行時:
.
go build -tags mlx -o ollama-mlx .3.啟動服務器:
.
./ollama serveCUDA版本構建:當需要使用CUDA加速時,可選用預設“MLX CUDA 13”或“MLX CUDA 12”:
.
cmake --preset 'MLX CUDA 13'
cmake --build --preset 'MLX CUDA 13' --parallel
cmake --install build --component MLX這部分更新讓Ollama更好地支持自定義加速和實驗性運行環境,為AI開發者提供更多性能調優空間。
四、新增集成:Onyx與Marimo正式支持Ollama
v0.14.2在文檔中正式新增兩個關鍵集成支持,為用戶提供更多使用場景。
1. Onyx 集成
Onyx是一個可自托管的聊天UI,現已無縫對接Ollama模型,支持:
? 定制智能代理;
? 網頁搜索與深度研究;
? 文檔與應用RAG檢索;
? Google Drive、Slack等應用連接;
? 圖片生成功能;
? 用戶組管理、RBAC、SSO安全認證。
安裝只需按照Onyx官方快速部署指南,選擇Ollama作為LLM提供者,配置API地址即可完成接入(如Docker環境下使用http://host.docker.internal訪問主機)。
2. Marimo 集成
Marimo是一款交互式Python筆記工具,支持通過Ollama提供AI功能:
? 在設置界面的AI標簽中配置Ollama的Base URL(默認
http://localhost:11434/v1);? 開啟與關閉指定模型;
? 新增模型;
? 支持內置AI聊天與代碼自動補全。
通過簡單配置后,即可在Marimo環境中調用Ollama提供的智能交互及推理服務。
五、Claude Code集成文檔修訂
Ollama官方完善了與Claude Code兼容的API文檔,現需設置以下環境變量:
.
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434
export ANTHROPIC_API_KEY=ollama或者直接運行:
.
ANTHROPIC_AUTH_TOKEN=ollama ANTHROPIC_BASE_URL=http://localhost:11434 ANTHROPIC_API_KEY=ollama claude --model qwen3-coder此優化讓 Claude Code 工具可順利使用 Ollama 本地模型作為后端。
六、其他文檔與庫更新
此次更新還包括:
? 增加了Onyx、Marimo文檔與多張集成截圖;
? 修復了舊版macOS自動更新簽名驗證問題;
? 更新**Observability(可觀測性)**集成:新增Opik、Lunary、OpenLIT、MLflow Tracing的支持;
? README文檔優化,新增MLX構建說明與相關項目鏈接;
? 代碼層面優化了
tool_test.go中ToolCallFunctionArguments API檢測邏輯。
代碼地址:github.com/ollama/ollama
Ollama v0.14.2是一個集模型擴展、命令行體驗優化、API規范化與環境構建指南于一體的版本。
不僅強化了多語言支持,還讓開發者在本地構建、部署與集成第三方工具時更高效、更穩定。
我們相信人工智能為普通人提供了一種“增強工具”,并致力于分享全方位的AI知識。在這里,您可以找到最新的AI科普文章、工具評測、提升效率的秘籍以及行業洞察。 歡迎關注“福大大架構師每日一題”,發消息可獲得面試資料,讓AI助力您的未來發展。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.