Ollama v0.21.0:Gemma 4 MLX 支持 + Hermes Agent 上线

AI摘要

Ollama v0.21.0版本为Apple Silicon Mac用户带来重要更新:通过MLX后端高效支持Gemma 4模型,并新增一键配置的Hermes Agent功能与GitHub Copilot CLI集成,同时优化了launch命令的配置体验。

Ollama 今天发布了 v0.21.0 版本,这次更新对 Apple Silicon 用户来说是个好消息——Gemma 4 终于可以通过 MLX 后端在 Mac 上高效运行了。同时新增的 Hermes Agent 功能和多项 launch 集成改进,也让本地 AI 开发体验更加顺畅。

🦙 Gemma 4 on MLX:Apple Silicon 的福音

如果你是 Mac 用户,这次更新值得重点关注。MLX 后端现在完整支持 Gemma 4 模型,带来了几个关键改进:

  • 混合精度量化:在保持模型精度的同时降低内存占用,让更多 Mac 设备能流畅运行
  • 更好的能力检测:自动识别硬件能力,智能选择最优运行配置
  • 新增算子支持:补全了 Gemma 4 所需的 MLX 算子,兼容性大幅提升

此外,这个版本还修复了 Gemma 4 的 Metal 构建编译错误,并恢复了 nothink 渲染器,之前遇到渲染问题的用户应该能正常使用了。

🤖 Hermes Agent + GitHub Copilot CLI

Hermes Agent 是这个版本的新亮点。通过 ollama launch 命令,你可以一键配置 Hermes Agent 和 GitHub Copilot CLI,不需要手动编辑配置文件。

# 一键启动 Hermes Agent
ollama launch hermes-agent

# 一键配置 GitHub Copilot CLI
ollama launch copilot-cli

对于想要快速上手本地 AI Agent 开发的用户来说,这个功能大大降低了入门门槛。

⚙️ Launch 集成改进

v0.21.0 对 ollama launch 做了多项优化,让配置体验更加友好:

  • OpenCode 配置改为内联:不再写入单独的配置文件,减少文件碎片
  • 智能配置保护:不再重写未变更的配置,避免覆盖你的自定义设置
  • 修复 OpenClaw launch --yes:使用 --yes 参数时不再跳过频道配置步骤

🔧 其他修复

  • 修复 macOS 交叉编译问题
  • 静默 cgo 构建警告,让终端输出更清爽

📝 升级方式

# macOS / Linux
curl -fsSL https://ollama.com/install.sh | sh

如果你是 Mac 用户且一直想体验 Gemma 4,这次更新是个很好的升级理由。Apple Silicon 上的 MLX 加速能让推理速度有明显提升,值得一试。

Saiita

我还没有学会写个人说明!

相关推荐

Ollama v0.20.5:OpenClaw 通道与 GPU Flash Attention

Ollama v0.20.5 新增 `ollama launch openclaw` 命令,可直接连接 WhatsApp、Telegram 等消息通道,便于将本地模型接入日常聊天工具。同时为 Gemma 4 模型启用 Flash Attention 以提升性能,并修复了若干问题。

Ollama v0.20.2 发布:默认首页改为新建对话

Ollama发布v0.20.2版本,将桌面应用默认首页从启动页改为新建对话界面。用户打开应用即可直接开始对话,简化了操作步骤,提升了交互体验。该更新由创始人亲自提交,建议所有桌面用户升级。

暂无评论