Ollama v0.18.0:云模型性能提升与 Nemotron-3-Super

AI摘要

Ollama 0.18.0 版本提升了云模型性能与可靠性,新增高性能 NVIDIA Nemotron-3-Super 模型,并支持非交互式任务执行。主要更新包括 Kimi-K2.5 速度最高提升2倍、成为 OpenClaw 提供商、优化云模型延迟,以及引入 `--yes` 参数便于自动化脚本使用。

Ollama 0.18.0 带来了 OpenClaw 和云模型的性能提升,以及全新的 NVIDIA Nemotron-3-Super 模型,专为高性能智能推理任务设计。

云模型性能和可靠性大幅提升:

  • Kimi-K2.5 速度提升最高 2 倍
  • 工具调用准确性得到改进
ollama launch openclaw --model kimi-k2.5

Ollama 现在可以在 OpenClaw 初始化时作为认证和模型提供商选择:

openclaw onboard --auth-choice ollama

NVIDIA 推出的全新 122B 参数模型,具有强大的推理和工具调用能力:

  • 云版本:ollama run nemotron-3-super:cloud
  • 本地版本:ollama run nemotron-3-super(需要 96GB+ 显存)

Nemotron-3-Super 在 PinchBench 基准测试中得分最高,该测试衡量模型与 OpenClaw 配合完成任务的成功率。

ollama launch 现在支持 --yes 参数,可在脚本、GitHub Actions 等非交互环境中使用:

ollama launch claude \
  --model glm-5:cloud \
  --yes \
  -- "Review this PR and comment on GitHub"

北美用户的 MiniMax-M2.5 和 Qwen3.5 云模型响应速度大幅提升:

  • MiniMax-M2.5:最高 10 倍提升
  • Qwen3.5:最高 2 倍提升
  • 响应时间常低于 1 秒

  • 云模型不再需要 ollama pull,使用 :cloud 标签会自动连接
  • 新增 --yes 参数跳过所有提示
  • 修复"重置为默认值"会禁用自动更新的问题
  • 确保在正确上下文长度进行上下文压缩
  • ROCm 7 驱动更新要求

macOS / Linux:

curl -fsSL https://ollama.com/install.sh | sh

Docker:

docker pull ollama/ollama:latest

Ollama 0.18.0 重点提升了云模型性能,新增 NVIDIA Nemotron-3-Super 高性能模型,并支持非交互式任务执行。配合 OpenClaw 使用体验更佳。

Saiita

我还没有学会写个人说明!

相关推荐

Ollama v0.20.5:OpenClaw 通道与 GPU Flash Attention

Ollama v0.20.5 新增 `ollama launch openclaw` 命令,可直接连接 WhatsApp、Telegram 等消息通道,便于将本地模型接入日常聊天工具。同时为 Gemma 4 模型启用 Flash Attention 以提升性能,并修复了若干问题。

暂无评论