Ollama v0.20.0 发布:支持 Gemma 4 系列模型

AI摘要

Ollama v0.20.0 正式发布,完整支持 Google 最新 Gemma 4 系列模型,包括轻量级 E2B、平衡型 E4B、高效 MoE 架构的 26B 及最强性能的 31B 版本。更新还包含 MLX 优化、Tokenizer 增强及文档改进,使开发者能快速在本地体验这些高性能开源模型。

Ollama v0.20.0 正式发布,本次更新带来了对 Google 最新发布的 Gemma 4 系列模型的完整支持。

🤖 Gemma 4 系列模型

本次更新最大的亮点是支持 Gemma 4 系列模型,提供多种规格选择:

  • Effective 2B (E2B) - 轻量级模型,适合资源受限环境
  • Effective 4B (E4B) - 平衡性能与资源消耗
  • 26B - MoE 架构,4B 激活参数,高效推理
  • 31B - Dense 模型,最强性能

快速体验

# E2B 轻量版
ollama run gemma4:e2b

# E4B 平衡版
ollama run gemma4:e4b

# 26B MoE 版
ollama run gemma4:26b

# 31B 完整版
ollama run gemma4:31b

🔧 其他改进

  • MLX 优化:尊重 tokenizer 的 add_bos_token 设置
  • Tokenizer 增强:添加 SentencePiece 风格 BPE 支持
  • 文档更新:更新 Pi 设备相关文档

Gemma 4 是 Google 推出的最新开源模型系列,在多项基准测试中表现出色。Ollama 的快速跟进支持让开发者可以第一时间在本地体验这些强大的模型。

Saiita

我还没有学会写个人说明!

相关推荐

Ollama v0.20.2 发布:默认首页改为新建对话

Ollama发布v0.20.2版本,将桌面应用默认首页从启动页改为新建对话界面。用户打开应用即可直接开始对话,简化了操作步骤,提升了交互体验。该更新由创始人亲自提交,建议所有桌面用户升级。

Ollama v0.18.3:VS Code 集成 + GLM 工具调用改进

Ollama v0.18.3 主要更新包括:新增 Visual Studio Code 集成,用户可通过 GitHub Copilot 直接在编辑器中使用本地或云端 Ollama 模型;同时改进了 GLM 模型的工具调用解析和 OpenClaw 集成的网关检查逻辑。此次更新重点提升了 VS Code 的开发集成体验。

Ollama v0.18.2:OpenClaw 集成优化与性能提升

Ollama v0.18.2版本发布,主要优化了OpenClaw集成与Claude Code本地性能。更新包括增强OpenClaw安装前的依赖检查、修复缓存破坏以加速Claude Code运行、修正模型启动命令,并确保websearch功能正常注册。用户可通过终端命令或官网下载更新。

暂无评论