Ollama v0.20.2 发布:默认首页改为新建对话
Ollama发布v0.20.2版本,将桌面应用默认首页从启动页改为新建对话界面。用户打开应用即可直接开始对话,简化了操作步骤,提升了交互体验。该更新由创始人亲自提交,建议所有桌面用户升级。
Ollama发布v0.20.2版本,将桌面应用默认首页从启动页改为新建对话界面。用户打开应用即可直接开始对话,简化了操作步骤,提升了交互体验。该更新由创始人亲自提交,建议所有桌面用户升级。
Ollama v0.20.0 正式发布,完整支持 Google 最新 Gemma 4 系列模型,包括轻量级 E2B、平衡型 E4B、高效 MoE 架构的 26B 及最强性能的 31B 版本。更新还包含 MLX 优化、Tokenizer 增强及文档改进,使开发者能快速在本地体验这些高性能开源模型。
Ollama v0.19.0版本发布,重点优化了KV缓存命中率以提升响应速度并降低成本,新增Web搜索插件使AI能获取实时信息,修复了Qwen系列模型的工具调用解析等问题,同时改进了macOS的MLX Runner并修复多项错误,提升了整体稳定性和性能。
Ollama v0.18.3 主要更新包括:新增 Visual Studio Code 集成,用户可通过 GitHub Copilot 直接在编辑器中使用本地或云端 Ollama 模型;同时改进了 GLM 模型的工具调用解析和 OpenClaw 集成的网关检查逻辑。此次更新重点提升了 VS Code 的开发集成体验。
Ollama v0.18.2版本发布,主要优化了OpenClaw集成与Claude Code本地性能。更新包括增强OpenClaw安装前的依赖检查、修复缓存破坏以加速Claude Code运行、修正模型启动命令,并确保websearch功能正常注册。用户可通过终端命令或官网下载更新。
Ollama v0.18.1 更新新增内置 Web Search 和 Fetch 插件,支持 OpenClaw 集成,使模型能搜索网络内容并抓取网页。同时引入非交互模式,适用于容器、CI/CD 及自动化任务。此外,更新改进了基准测试工具,并优化了 OpenClaw 的认证与安装流程。
Ollama 0.18.0 版本提升了云模型性能与可靠性,新增高性能 NVIDIA Nemotron-3-Super 模型,并支持非交互式任务执行。主要更新包括 Kimi-K2.5 速度最高提升2倍、成为 OpenClaw 提供商、优化云模型延迟,以及引入 `--yes` 参数便于自动化脚本使用。
解决网络更新慢问题:使用GitHub加速代理,wget替换curl,创建update.sh脚本自动下载安装ollama,需关闭网络代理并指定版本号。
修改Ollama环境变量Path,将默认安装路径改为目标路径,并设置OLLAMA_MODELS变量指向模型存储位置E:Ollama.ollamamodels。