Ollama v0.18.2:OpenClaw 集成优化与性能提升

AI摘要

Ollama v0.18.2版本发布,主要优化了OpenClaw集成与Claude Code本地性能。更新包括增强OpenClaw安装前的依赖检查、修复缓存破坏以加速Claude Code运行、修正模型启动命令,并确保websearch功能正常注册。用户可通过终端命令或官网下载更新。

Ollama v0.18.2 版本发布,本次更新主要针对 OpenClaw 集成进行了优化,并提升了 Claude Code 本地运行的性能。

🚀 主要更新内容

1. OpenClaw 安装检查增强

在安装 OpenClaw 之前,增加了额外的检查步骤,确保系统已安装 npmgit,避免安装过程中出现依赖缺失的问题。

2. Claude Code 本地性能提升

修复了缓存破坏问题,使得 Claude Code 在本地运行时速度更快。通过防止不必要的缓存失效,减少了重复加载和初始化的时间。

3. 修复 OpenClaw 模型启动命令

修复了 ollama launch openclaw --model <model> 命令的支持问题,现在可以正确指定模型启动 OpenClaw。

4. 注册 Ollama WebSearch 包

正确注册了 Ollama 的 websearch 包,确保 OpenClaw 可以正常调用网络搜索功能。

📦 如何更新

在终端运行以下命令更新 Ollama:

ollama pull ollama

或者访问 Ollama 官网 下载最新版本。

📝 版本信息

  • 版本号: v0.18.2
  • 发布日期: 2026-03-19
  • 上一版本: v0.18.1

Saiita

我还没有学会写个人说明!

相关推荐

Ollama v0.20.2 发布:默认首页改为新建对话

Ollama发布v0.20.2版本,将桌面应用默认首页从启动页改为新建对话界面。用户打开应用即可直接开始对话,简化了操作步骤,提升了交互体验。该更新由创始人亲自提交,建议所有桌面用户升级。

Ollama v0.20.0 发布:支持 Gemma 4 系列模型

Ollama v0.20.0 正式发布,完整支持 Google 最新 Gemma 4 系列模型,包括轻量级 E2B、平衡型 E4B、高效 MoE 架构的 26B 及最强性能的 31B 版本。更新还包含 MLX 优化、Tokenizer 增强及文档改进,使开发者能快速在本地体验这些高性能开源模型。

Ollama v0.18.3:VS Code 集成 + GLM 工具调用改进

Ollama v0.18.3 主要更新包括:新增 Visual Studio Code 集成,用户可通过 GitHub Copilot 直接在编辑器中使用本地或云端 Ollama 模型;同时改进了 GLM 模型的工具调用解析和 OpenClaw 集成的网关检查逻辑。此次更新重点提升了 VS Code 的开发集成体验。

暂无评论