Ollama v0.20.7修复了Gemma模型在禁用thinking模式时的输出质量问题,并为Linux平台的AMD显卡用户升级ROCm至7.2.1,提升了GPU兼容性与性能。
Ollama 发布了 v0.20.7 版本,虽然更新内容不多,但修复了两个重要的问题,对于使用 Gemma 模型和 AMD 显卡的用户来说值得关注。
🔧 修复 Gemma 模型质量问题
本次更新修复了 gemma:e2b 和 gemma:e4b 模型在禁用 thinking 模式时输出质量下降的问题。
如果你之前在使用这两个小参数模型时发现回答质量不稳定,升级后应该会有所改善。
🎮 ROCm 升级到 7.2.1
对于 Linux 平台的 AMD 显卡用户,Ollama 已将 ROCm 升级到 7.2.1 版本。这意味着更好的 AMD GPU 兼容性和性能优化。
📦 升级方式
升级非常简单,运行以下命令即可:
ollama pull ollama:latest
或者重新下载安装包。如果你是 AMD 显卡用户,强烈建议升级以获得更好的性能体验。🚀

暂无评论
要发表评论,您必须先 登录