Ollama v0.18.1:Web Search + OpenClaw 深度集成

AI摘要

Ollama v0.18.1 更新新增内置 Web Search 和 Fetch 插件,支持 OpenClaw 集成,使模型能搜索网络内容并抓取网页。同时引入非交互模式,适用于容器、CI/CD 及自动化任务。此外,更新改进了基准测试工具,并优化了 OpenClaw 的认证与安装流程。

Ollama 现在内置了 Web SearchWeb Fetch 插件,支持 OpenClaw 集成。这意味着 Ollama 的模型(本地或云端)可以搜索最新的网络内容和新闻,还能抓取网页并提取可读内容进行处理。

注意:此功能不执行 JavaScript。使用本地模型进行 Web 搜索时,需要先通过 ollama signin 登录。

ollama launch openclaw

如果你已经配置好 OpenClaw,可以直接安装 Web Search 插件:

openclaw plugins install @ollama/openclaw-web-search

ollama launch 现在支持非交互模式,非常适合:

  • Docker/容器:作为 CI/CD 流水线步骤运行评估、测试提示词或验证模型行为
  • CI/CD:在持续集成中生成代码审查、安全检查等任务
  • 脚本/自动化:使用 Ollama 和 Claude Code 启动自动化任务

ollama launch claude --model kimi-k2.5:cloud --yes -- -p "how does this repository work?"

参数说明:

  • --model:必须指定以运行非交互模式
  • --yes:自动拉取模型并跳过所有选择器

你可以让 OpenClaw 使用 subagent 运行 Claude 任务:

ollama launch claude --model kimi-k2.5:cloud --yes -- -p "how does this repository work?" using a subagent

  • ollama launch openclaw 现在使用官方 Ollama 认证和模型提供商
  • 改进了 ./cmd/bench 中的基准测试工具
  • 当 systemd 不可用时,ollama launch openclaw 会跳过 --install-daemon

完整更新日志https://github.com/ollama/ollama/compare/v0.18.0...v0.18.1

Saiita

我还没有学会写个人说明!

相关推荐

Ollama 2026年4月更新:v0.22.0+NVIDIA Nemotron 3支持

Ollama v0.22.0新增两款开源模型:NVIDIA Nemotron 3 Omni多模态大模型(支持文本、代码、图像,需8GB+显存)和Poolside Laguna XS.2编程专用模型(轻量约3-4GB,4GB显存可运行)。适合需要本地多模态能力或代码补全的开发者,可通过ollama pull命令快速部署。

Ollama v0.21.1:新增 Kimi CLI 支持,MLX 性能大幅提升

Ollama v0.21.1发布,主要更新包括:集成Kimi CLI,可一键启动月之暗面K2.6模型(需联网);MLX采样速度提升17%以上,Apple Silicon用户受益;新增logprobs支持;修复macOS模型选择器及Gemma 4结构化输出bug。适合Mac和Kimi用户升级。

暂无评论