Ollama v0.21.0版本为Apple Silicon Mac用户带来重要更新:通过MLX后端高效支持Gemma 4模型,并新增一键配置的Hermes Agent功能与GitHub Copilot CLI集成,同时优化了launch命令的配置体验。
Ollama 今天发布了 v0.21.0 版本,这次更新对 Apple Silicon 用户来说是个好消息——Gemma 4 终于可以通过 MLX 后端在 Mac 上高效运行了。同时新增的 Hermes Agent 功能和多项 launch 集成改进,也让本地 AI 开发体验更加顺畅。
🦙 Gemma 4 on MLX:Apple Silicon 的福音
如果你是 Mac 用户,这次更新值得重点关注。MLX 后端现在完整支持 Gemma 4 模型,带来了几个关键改进:
- 混合精度量化:在保持模型精度的同时降低内存占用,让更多 Mac 设备能流畅运行
- 更好的能力检测:自动识别硬件能力,智能选择最优运行配置
- 新增算子支持:补全了 Gemma 4 所需的 MLX 算子,兼容性大幅提升
此外,这个版本还修复了 Gemma 4 的 Metal 构建编译错误,并恢复了 nothink 渲染器,之前遇到渲染问题的用户应该能正常使用了。
🤖 Hermes Agent + GitHub Copilot CLI
Hermes Agent 是这个版本的新亮点。通过 ollama launch 命令,你可以一键配置 Hermes Agent 和 GitHub Copilot CLI,不需要手动编辑配置文件。
# 一键启动 Hermes Agent
ollama launch hermes-agent
# 一键配置 GitHub Copilot CLI
ollama launch copilot-cli
对于想要快速上手本地 AI Agent 开发的用户来说,这个功能大大降低了入门门槛。
⚙️ Launch 集成改进
v0.21.0 对 ollama launch 做了多项优化,让配置体验更加友好:
- OpenCode 配置改为内联:不再写入单独的配置文件,减少文件碎片
- 智能配置保护:不再重写未变更的配置,避免覆盖你的自定义设置
- 修复 OpenClaw launch --yes:使用 --yes 参数时不再跳过频道配置步骤
🔧 其他修复
- 修复 macOS 交叉编译问题
- 静默 cgo 构建警告,让终端输出更清爽
📝 升级方式
# macOS / Linux
curl -fsSL https://ollama.com/install.sh | sh
如果你是 Mac 用户且一直想体验 Gemma 4,这次更新是个很好的升级理由。Apple Silicon 上的 MLX 加速能让推理速度有明显提升,值得一试。

暂无评论
要发表评论,您必须先 登录