Ollama 0.18.0 版本提升了云模型性能与可靠性,新增高性能 NVIDIA Nemotron-3-Super 模型,并支持非交互式任务执行。主要更新包括 Kimi-K2.5 速度最高提升2倍、成为 OpenClaw 提供商、优化云模型延迟,以及引入 `--yes` 参数便于自动化脚本使用。
版本概览
Ollama 0.18.0 带来了 OpenClaw 和云模型的性能提升,以及全新的 NVIDIA Nemotron-3-Super 模型,专为高性能智能推理任务设计。
主要更新
🚀 Kimi-K2.5 性能提升
云模型性能和可靠性大幅提升:
- Kimi-K2.5 速度提升最高 2 倍
- 工具调用准确性得到改进
ollama launch openclaw --model kimi-k2.5
🤖 Ollama 成为 OpenClaw 提供商
Ollama 现在可以在 OpenClaw 初始化时作为认证和模型提供商选择:
openclaw onboard --auth-choice ollama
🧠 Nemotron-3-Super 模型
NVIDIA 推出的全新 122B 参数模型,具有强大的推理和工具调用能力:
- 云版本:
ollama run nemotron-3-super:cloud - 本地版本:
ollama run nemotron-3-super(需要 96GB+ 显存)
Nemotron-3-Super 在 PinchBench 基准测试中得分最高,该测试衡量模型与 OpenClaw 配合完成任务的成功率。
⚙️ 非交互式任务支持
ollama launch 现在支持 --yes 参数,可在脚本、GitHub Actions 等非交互环境中使用:
ollama launch claude \
--model glm-5:cloud \
--yes \
-- "Review this PR and comment on GitHub"
⚡ 云模型延迟优化
北美用户的 MiniMax-M2.5 和 Qwen3.5 云模型响应速度大幅提升:
- MiniMax-M2.5:最高 10 倍提升
- Qwen3.5:最高 2 倍提升
- 响应时间常低于 1 秒
其他改进
- 云模型不再需要
ollama pull,使用:cloud标签会自动连接 - 新增
--yes参数跳过所有提示 - 修复"重置为默认值"会禁用自动更新的问题
- 确保在正确上下文长度进行上下文压缩
- ROCm 7 驱动更新要求
更新方式
macOS / Linux:
curl -fsSL https://ollama.com/install.sh | sh
Docker:
docker pull ollama/ollama:latest
总结
Ollama 0.18.0 重点提升了云模型性能,新增 NVIDIA Nemotron-3-Super 高性能模型,并支持非交互式任务执行。配合 OpenClaw 使用体验更佳。

暂无评论
要发表评论,您必须先 登录