【教程】解决ollama安装或者更新网速慢的问题

AI摘要

解决网络更新慢问题:使用GitHub加速代理,wget替换curl,创建update.sh脚本自动下载安装ollama,需关闭网络代理并指定版本号。

更新慢一般都是网络问题,我是因为更新了clash最新版本后,导致网络十分的不稳定,经常被拒绝连接;

解决方法是使用github加速代理,wget下载命令行替换curl;需要创建update.sh脚本,一键执行更新或者下载ollama;

VERSION版本需要在github项目上查看

如果使用网络代理需要关闭;

update.sh脚本代码

#!/bin/bash

# 文件路径
FILE="ollama_install.sh"
VERSION='v0.11.10'

# 下载ollama安装脚本
rm ${FILE}
curl -fsSL https://ollama.com/install.sh -o ${FILE}

# 修改 URL
sed -i 's|https://ollama.com/download/ollama-linux|https://gh.llkk.cc/https://github.com/ollama/ollama/releases/download/'"${VERSION}"'/ollama-linux|g' ${FILE}

# 修改脚本中的curl命令为wget
sed -i 's|curl --fail --show-error --location --progress-bar|wget -c --progress=bar --timeout=60 --tries=30 --waitretry=30  -O -|g' ${FILE}
# 执行ollama安装脚本
chmod +x ${FILE}
./${FILE}

Saiyintai

软件测试工程师

相关推荐

Ollama 2026年4月更新:v0.22.0+NVIDIA Nemotron 3支持

Ollama v0.22.0新增两款开源模型:NVIDIA Nemotron 3 Omni多模态大模型(支持文本、代码、图像,需8GB+显存)和Poolside Laguna XS.2编程专用模型(轻量约3-4GB,4GB显存可运行)。适合需要本地多模态能力或代码补全的开发者,可通过ollama pull命令快速部署。

Ollama v0.21.1:新增 Kimi CLI 支持,MLX 性能大幅提升

Ollama v0.21.1发布,主要更新包括:集成Kimi CLI,可一键启动月之暗面K2.6模型(需联网);MLX采样速度提升17%以上,Apple Silicon用户受益;新增logprobs支持;修复macOS模型选择器及Gemma 4结构化输出bug。适合Mac和Kimi用户升级。

暂无评论