Ollama v0.20.0 正式发布,完整支持 Google 最新 Gemma 4 系列模型,包括轻量级 E2B、平衡型 E4B、高效 MoE 架构的 26B 及最强性能的 31B 版本。更新还包含 MLX 优化、Tokenizer 增强及文档改进,使开发者能快速在本地体验这些高性能开源模型。
Ollama v0.20.0 正式发布,本次更新带来了对 Google 最新发布的 Gemma 4 系列模型的完整支持。
🤖 Gemma 4 系列模型
本次更新最大的亮点是支持 Gemma 4 系列模型,提供多种规格选择:
- Effective 2B (E2B) - 轻量级模型,适合资源受限环境
- Effective 4B (E4B) - 平衡性能与资源消耗
- 26B - MoE 架构,4B 激活参数,高效推理
- 31B - Dense 模型,最强性能
快速体验
# E2B 轻量版
ollama run gemma4:e2b
# E4B 平衡版
ollama run gemma4:e4b
# 26B MoE 版
ollama run gemma4:26b
# 31B 完整版
ollama run gemma4:31b
🔧 其他改进
- MLX 优化:尊重 tokenizer 的 add_bos_token 设置
- Tokenizer 增强:添加 SentencePiece 风格 BPE 支持
- 文档更新:更新 Pi 设备相关文档
Gemma 4 是 Google 推出的最新开源模型系列,在多项基准测试中表现出色。Ollama 的快速跟进支持让开发者可以第一时间在本地体验这些强大的模型。

暂无评论
要发表评论,您必须先 登录