OpenClaw的心跳功能可实现AI助手主动执行任务,但默认使用主模型会消耗大量API调用额度。建议为心跳单独配置免费的NVIDIA NIM API提供的Kimi-K2.5模型,该模型速度快、支持工具调用且输出准确,能有效节省成本。配置步骤包括获取API密钥、修改配置文件并指定心跳模型,最终实现高效稳定的自动化任务处理。
OpenClaw 的心跳(Heartbeat)是一个强大的功能,它可以让 AI 助手主动为你做事,而不是只等你找它。比如:
- 主动提醒重要事项(日历事件、重要邮件)
- 定期检查并整理记忆文件
- 执行后台维护任务
但是,默认情况下心跳使用你配置的主模型(比如 GLM-5、Claude 等),每次心跳都会消耗 API 调用次数。如果心跳频率是 30 分钟一次,一天就是 48 次调用,一个月下来就是 1440 次。
问题
- 消耗大量 API 调用额度
- 如果使用订阅模型(如 Claude),可能会触及速率限制
- 简单的心跳任务用高级模型有点"杀鸡用牛刀"
解决方案: 为心跳单独配置一个免费的、足够用的模型。
为什么选择 NVIDIA NIM API 的 Kimi-K2.5?
注意:这里说的是 NVIDIA NIM API 平台提供的 Kimi-K2.5 是免费的,而不是 Kimi-K2.5 本身免费。
NVIDIA NIM API 提供了免费的模型调用服务,其中包括 Kimi-K2.5。这个模型的特点:
| 特性 | 说明 |
|---|---|
| 免费 | NVIDIA NIM API 有免费额度 |
| 速度快 | 比本地 32B 模型快很多 |
| 支持工具调用 | 可以正确调用 read、memory_search 等工具 |
| 输出准确 | 能按照指令正确执行心跳任务 |
| 稳定 | 不会像某些本地模型那样输出无关内容 |
测试对比
我测试了多个模型用于心跳:
| 模型 | 结果 | 原因 |
|---|---|---|
| Kimi-K2.5 (NVIDIA) | ✅ 成功 | 速度快、输出正确、支持工具调用 |
| GLM-5 | ✅ 成功 | 但消耗付费 API 额度 |
| qwen3:32b (本地) | ⚠️ 部分成功 | 执行慢(10分钟)、输出不准确 |
| qwen3:14b (本地) | ❌ 失败 | 错误调用工具 |
| llama3.1:8b (本地) | ❌ 失败 | 输出无关内容 |
| deepseek-r1:1.5b (本地) | ❌ 失败 | 不支持工具调用 |
| MiniMax-M2.5 (硅基流动) | ❌ 失败 | 超时/400 错误 |
结论:Kimi-K2.5 (NVIDIA) 是最佳选择。
配置步骤
1. 获取 NVIDIA NIM API Key
- 访问 NVIDIA NIM
- 注册并登录
- 获取 API Key
2. 在 OpenClaw 中配置 NVIDIA Provider
编辑 ~/.openclaw/openclaw.json,确保 NVIDIA provider 配置正确:
{
"models": {
"providers": {
"nvidia": {
"baseUrl": "https://integrate.api.nvidia.com/v1",
"apiKey": "你的NVIDIA_API_KEY",
"api": "openai-completions",
"models": [
{
"id": "moonshotai/kimi-k2.5",
"name": "kimi-k2.5",
"contextWindow": 200000,
"maxTokens": 8192
}
]
}
}
}
}3. 配置心跳使用 Kimi-K2.5
在 agents.defaults 中添加 heartbeat 配置:
{
"agents": {
"defaults": {
"heartbeat": {
"every": "30m",
"model": "nvidia/moonshotai/kimi-k2.5",
"target": "last",
"prompt": "Use the read tool to read /home/你的用户名/.openclaw/workspace/HEARTBEAT.md. Follow the instructions in that file. If nothing needs attention, reply HEARTBEAT_OK."
},
"model": {
"primary": "zai/glm-5",
"fallbacks": ["zai/glm-4.7"]
}
}
}
}关键配置说明:
| 参数 | 说明 |
|---|---|
every | 心跳间隔(30m = 30分钟) |
model | 心跳使用的模型(nvidia/moonshotai/kimi-k2.5) |
target | 发送目标(last = 最后使用的渠道) |
prompt | 心跳提示词 |
4. 创建 HEARTBEAT.md
在工作区创建 HEARTBEAT.md 文件,定义心跳要做什么。
5. 重启 Gateway
systemctl --user restart openclaw-gateway.service6. 测试心跳
openclaw system event --text "heartbeat test" --mode now等待几分钟,如果看到 HEARTBEAT_OK 或其他正确的回复,说明配置成功。
节省效果对比
| 场景 | 使用 GLM-5 | 使用 Kimi-K2.5 (NVIDIA) |
|---|---|---|
| 心跳次数(30分钟间隔) | 48次/天 | 48次/天 |
| API 调用消耗 | 消耗付费额度 | 免费 |
| 每月节省 | - | 1440次付费调用 |
常见问题
Q: 心跳会消耗多少 token?
心跳的 token 消耗取决于你的 HEARTBEAT.md 内容复杂度。一般来说:
- 简单心跳(只检查记忆文件):约 500-1000 tokens/次
- 复杂心跳(检查日历+邮件等):可能 2000-5000 tokens/次
Q: 为什么不推荐用本地模型?
本地模型用于心跳存在几个问题:
- 工具调用不稳定 - 很多本地模型不支持或错误调用工具
- 输出不准确 - 可能返回无关内容
- 执行太慢 - 32B 模型执行心跳可能需要 10 分钟
而 Kimi-K2.5 (NVIDIA) 云端模型既免费又稳定。
Q: 心跳和正常对话会互相影响吗?
不会。心跳使用独立配置的模型,正常对话使用 model.primary 配置的模型,两者完全独立。
总结
通过为 OpenClaw 心跳配置 NVIDIA 免费 Kimi-K2.5 模型,你可以:
- ✅ 节省付费 API 调用额度
- ✅ 避免触及订阅模型的速率限制
- ✅ 获得稳定、快速的心跳体验
- ✅ 保持正常对话使用高级模型
这是 OpenClaw 心跳的最佳实践之一,推荐所有用户配置。

暂无评论
要发表评论,您必须先 登录