当前位置:首页 > 系统教程 > 正文

Linux Ollama离线安装与更新教程(国内快速下载最新版本,适配Qwen3系列模型)

随着大语言模型普及,Ollama作为轻量级部署工具备受青睐。但国内用户下载官方安装包常遇速度慢问题。本教程提供Ollama离线安装方法,涵盖Linux Ollama教程,并针对阿里通义千问团队最新开源的Qwen3模型部署给出详细步骤,助你国内下载Ollama无忧。

一、准备工作

检查Linux系统架构(amd64/arm64):uname -m,以及发行版信息:cat /etc/os-release。确保已安装curl或wget:which curlwhich wget。如未安装,使用系统包管理器安装(如apt install curl)。

二、下载Ollama离线包

推荐使用国内镜像加速下载。例如清华大学开源镜像站提供了Ollama的Linux版本:wget https://mirrors.tuna.tsinghua.edu.cn/ollama/ollama-linux-amd64.tgz。若需arm64版,将链接中amd64替换为arm64。也可从阿里云镜像站获取。下载完成后,文件名为ollama-linux-*.tgz。

Linux Ollama离线安装与更新教程(国内快速下载最新版本,适配Qwen3系列模型) Ollama离线安装 Ollama教程 Qwen3模型部署 国内下载Ollama 第1张

三、安装Ollama(离线安装)

解压tgz包到/usr/local:sudo tar -xzf ollama-linux-amd64.tgz -C /usr/local。这将把ollama二进制文件解压到/usr/local/bin。确保该目录在PATH中:echo $PATH。若不在,添加export PATH=$PATH:/usr/local/bin到~/.bashrc。如果是deb包,使用sudo dpkg -i ollama.deb安装。更新Ollama只需重复下载新版并覆盖安装即可。

四、验证安装

执行ollama --version,若显示版本号(如0.1.39),则Ollama离线安装成功。

五、离线部署Qwen3模型

Qwen3系列模型(如Qwen3-7B)需下载GGUF格式文件。可通过ModelScope或HuggingFace镜像站下载,例如使用wget https://modelscope.cn/models/qwen/Qwen3-7B-GGUF/resolve/main/qwen3-7b.Q4_K_M.gguf。下载后放到指定目录,如~/ollama_models/。然后创建Modelfile:echo "FROM /path/to/qwen3-7b.Q4_K_M.gguf" > Modelfile。最后导入模型:ollama create qwen3 -f Modelfile。等待导入完成。

六、运行Qwen3

启动交互式对话:ollama run qwen3。输入问题测试模型效果。至此,Qwen3模型部署完成。

七、总结

通过本Linux Ollama教程,你学会了离线安装Ollama并部署Qwen3模型,避免了国内下载Ollama的网络瓶颈。本方法同样适用于其他模型。如有问题,欢迎交流。