Ollama v0.18.0:云模型性能提升与 Nemotron-3-Super

AI摘要

Ollama 0.18.0 版本提升了云模型性能与可靠性,新增高性能 NVIDIA Nemotron-3-Super 模型,并支持非交互式任务执行。主要更新包括 Kimi-K2.5 速度最高提升2倍、成为 OpenClaw 提供商、优化云模型延迟,以及引入 `--yes` 参数便于自动化脚本使用。

版本概览

Ollama 0.18.0 带来了 OpenClaw 和云模型的性能提升,以及全新的 NVIDIA Nemotron-3-Super 模型,专为高性能智能推理任务设计。

主要更新

🚀 Kimi-K2.5 性能提升

云模型性能和可靠性大幅提升:

  • Kimi-K2.5 速度提升最高 2 倍
  • 工具调用准确性得到改进
ollama launch openclaw --model kimi-k2.5

🤖 Ollama 成为 OpenClaw 提供商

Ollama 现在可以在 OpenClaw 初始化时作为认证和模型提供商选择:

openclaw onboard --auth-choice ollama

🧠 Nemotron-3-Super 模型

NVIDIA 推出的全新 122B 参数模型,具有强大的推理和工具调用能力:

  • 云版本:ollama run nemotron-3-super:cloud
  • 本地版本:ollama run nemotron-3-super(需要 96GB+ 显存)

Nemotron-3-Super 在 PinchBench 基准测试中得分最高,该测试衡量模型与 OpenClaw 配合完成任务的成功率。

⚙️ 非交互式任务支持

ollama launch 现在支持 --yes 参数,可在脚本、GitHub Actions 等非交互环境中使用:

ollama launch claude \
  --model glm-5:cloud \
  --yes \
  -- "Review this PR and comment on GitHub"

⚡ 云模型延迟优化

北美用户的 MiniMax-M2.5 和 Qwen3.5 云模型响应速度大幅提升:

  • MiniMax-M2.5:最高 10 倍提升
  • Qwen3.5:最高 2 倍提升
  • 响应时间常低于 1 秒

其他改进

  • 云模型不再需要 ollama pull,使用 :cloud 标签会自动连接
  • 新增 --yes 参数跳过所有提示
  • 修复"重置为默认值"会禁用自动更新的问题
  • 确保在正确上下文长度进行上下文压缩
  • ROCm 7 驱动更新要求

更新方式

macOS / Linux:

curl -fsSL https://ollama.com/install.sh | sh

Docker:

docker pull ollama/ollama:latest

总结

Ollama 0.18.0 重点提升了云模型性能,新增 NVIDIA Nemotron-3-Super 高性能模型,并支持非交互式任务执行。配合 OpenClaw 使用体验更佳。

Saiita

我还没有学会写个人说明!

相关推荐

Ollama v0.20.2 发布:默认首页改为新建对话

Ollama发布v0.20.2版本,将桌面应用默认首页从启动页改为新建对话界面。用户打开应用即可直接开始对话,简化了操作步骤,提升了交互体验。该更新由创始人亲自提交,建议所有桌面用户升级。

Ollama v0.20.0 发布:支持 Gemma 4 系列模型

Ollama v0.20.0 正式发布,完整支持 Google 最新 Gemma 4 系列模型,包括轻量级 E2B、平衡型 E4B、高效 MoE 架构的 26B 及最强性能的 31B 版本。更新还包含 MLX 优化、Tokenizer 增强及文档改进,使开发者能快速在本地体验这些高性能开源模型。

Ollama v0.18.3:VS Code 集成 + GLM 工具调用改进

Ollama v0.18.3 主要更新包括:新增 Visual Studio Code 集成,用户可通过 GitHub Copilot 直接在编辑器中使用本地或云端 Ollama 模型;同时改进了 GLM 模型的工具调用解析和 OpenClaw 集成的网关检查逻辑。此次更新重点提升了 VS Code 的开发集成体验。

暂无评论