Ollama v0.20.5 新增 `ollama launch openclaw` 命令,可直接连接 WhatsApp、Telegram 等消息通道,便于将本地模型接入日常聊天工具。同时为 Gemma 4 模型启用 Flash Attention 以提升性能,并修复了若干问题。
Ollama 发布了 v0.20.5 版本更新,这次带来了一项重要的集成功能——通过 ollama launch openclaw 命令直接连接 WhatsApp、Telegram、Discord 等消息通道。此外还修复了若干问题。下面是本次更新的主要内容。
🆕 OpenClaw 通道设置
这是本次更新最大的亮点。通过新增的 ollama launch openclaw 命令,用户可以直接在 Ollama 中配置和连接各种消息通道,包括 WhatsApp、Telegram、Discord 等。这意味着你可以把 Ollama 模型快速接入日常使用的聊天工具,实现本地 AI 助手的即时对话。
对于已经在使用 OpenClaw 的用户来说,这个集成让 Ollama 的本地模型能力与 OpenClaw 的多平台消息路由完美打通,部署流程更加丝滑。
⚡ Gemma 4 Flash Attention
新版本为兼容 GPU 上的 Gemma 4 模型启用了 Flash Attention 支持。Flash Attention 可以显著提升推理速度并降低显存占用,对于运行大参数量模型的用户来说是个实实在在的性能提升。
🔧 Bug 修复
- OpenCode 检测:
ollama launch openclaw现在可以检测通过 curl 安装在~/.opencode/bin的 OpenCode 实例 - /save 命令修复:修复了基于 safetensors 架构的模型使用
/save命令时的问题
🔄 升级方式
如果你已经安装了 Ollama,升级非常简单:
ollama update
如果是全新安装:
curl -fsSL https://ollama.com/install.sh | sh
🤔 我的看法
Ollama 和 OpenClaw 的集成是一个很自然的方向。Ollama 提供本地模型运行能力,OpenClaw 提供多平台消息路由,两者结合让本地 AI 助手的部署门槛进一步降低。对于关心数据隐私、不想把对话发到云端的用户来说,这个组合非常有吸引力。
Gemma 4 Flash Attention 的支持也值得关注,说明 Ollama 团队在新硬件适配和性能优化上持续投入。

暂无评论
要发表评论,您必须先 登录