OpenClaw v2026.4.10版本带来了多项重要更新。核心亮点是全新的Active Memory插件,它能自动管理用户偏好和历史上下文,实现“无感记忆”,显著提升长期对话体验。同时,版本原生集成了Codex,方便开发者直接进行编程任务。针对macOS用户,新增了实验性的本地MLX语音支持,提供更低延迟和更好隐私的语音对话。其他更新还包括视频生成模型支持、Microsoft Teams功能增强、CLI
OpenClaw 在 4 月 10 日发布了 v2026.4.10 版本,这次更新内容相当丰富,涵盖了 AI 记忆、Codex 集成、本地语音、Teams 支持等多个方向。
Active Memory 插件:AI 自动记忆上下文
这是一个全新的可选插件,给 OpenClaw 增加了一个专属的记忆子 Agent。它会在每次回复前自动拉取相关的偏好、上下文和历史细节,不再需要用户手动说「记住这个」。
支持可配置的 message/recent/full context 模式,还有 /verbose 命令实时检查记忆状态。
我的看法:这个功能太需要了。之前用 OpenClaw 最大的痛点就是每次新会话都要重新交代背景,有了 Active Memory 基本上可以做到「无感记忆」,对长期使用体验提升很大。
Codex 原生支持
新增了 bundled Codex provider。codex/gpt-* 模型使用 Codex 管理的认证、原生线程和压缩功能,而 openai/gpt-* 仍然走正常 OpenAI 路径。
我的看法:可以在 OpenClaw 里直接用 Codex 的能力做编程任务,不用切换环境,对开发者来说很方便。
macOS Talk Mode:本地 MLX 语音
新增实验性本地 MLX speech provider,支持本地语音播放、中断处理和系统语音回退。macOS 用户可以完全本地运行语音对话。
我的看法:本地语音意味着隐私更好、延迟更低,Mac 用户的实用升级。
其他重要更新
视频生成:fal provider 新增 Seedance 2.0 模型支持。
Microsoft Teams:新增消息固定、标记已读、表情反应等操作。
CLI exec policy:新增 openclaw exec-policy 命令管理执行审批。
Gateway:新增 commands.list RPC 命令发现。
飞书:标准化 User Agent 并注册为 AI Agent。
自托管模型:新增 allowPrivateNetwork 配置,支持信任的本地端点。
QA 测试:新增 Matrix、Telegram 实时测试通道,以及 Multipass VM 隔离测试。
信息来源:GitHub Releases

暂无评论
要发表评论,您必须先 登录