在人工智能迅猛发展的今天,深度学习已成为热门技术。而Linux系统因其开源、稳定、高效的特点,成为大多数深度学习开发者首选的操作系统。本文将手把手教你如何在Linux环境下配置网络并搭建一个完整的深度学习开发环境,即使你是小白也能轻松上手!
相比Windows或macOS,Linux(尤其是Ubuntu)拥有更好的硬件兼容性、更灵活的包管理工具(如apt)、以及对GPU驱动和CUDA等深度学习核心组件的原生支持。此外,大多数云服务器和科研机构都使用Linux系统,掌握它将为你打开更多机会。
深度学习环境搭建需要下载大量依赖包,因此稳定的网络至关重要。在终端中执行以下命令检查网络是否通畅:
ping -c 4 www.baidu.com 如果看到返回结果,说明网络正常。若无法连接,请检查Wi-Fi/有线连接,或配置代理(如你在校园网或公司内网)。
打开终端(Ctrl+Alt+T),运行以下命令更新软件源并安装必要工具:
sudo apt updatesudo apt upgrade -ysudo apt install -y python3 python3-pip git curl wget build-essential 这一步会安装Python3、pip(Python包管理器)、git(代码版本控制)等基础组件,为后续安装深度学习框架打下基础。
如果你有NVIDIA显卡,强烈建议启用GPU加速。首先检查显卡型号:
lspci | grep -i nvidia 然后添加官方驱动仓库并安装:
sudo ubuntu-drivers autoinstall 重启后安装CUDA Toolkit(以Ubuntu 22.04 + CUDA 12.1为例):
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.1-1_all.debsudo dpkg -i cuda-keyring_1.1-1_all.debsudo apt updatesudo apt install -y cuda-toolkit-12-1 安装完成后,将CUDA路径加入环境变量:
echo 'export PATH=/usr/local/cuda/bin:$PATH' >> ~/.bashrcecho 'export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH' >> ~/.bashrcsource ~/.bashrc 推荐使用虚拟环境隔离项目依赖:
python3 -m venv dl_envsource dl_env/bin/activatepip install --upgrade pip 安装PyTorch(带GPU支持):
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 验证安装是否成功:
python3 -c "import torch; print(torch.__version__); print('CUDA available:', torch.cuda.is_available())" 如果输出显示CUDA available: True,恭喜你!GPU已成功启用。
创建一个简单脚本 hello_dl.py:
import torchimport torch.nn as nnmodel = nn.Linear(10, 1)x = torch.randn(1, 10)y = model(x)print("Output:", y.item())print("Success! Your deep learning environment is ready.") 运行它:
python hello_dl.py 看到输出即表示一切正常!
通过以上步骤,你已在Linux系统上成功搭建了支持GPU加速的深度学习环境。无论是进行Linux网络配置、安装驱动,还是部署神经网络Linux部署项目,你现在都具备了基础能力。记住,实践是最好的老师,接下来可以尝试复现经典模型或参与Kaggle竞赛。
本文覆盖的关键技术点包括:Ubuntu深度学习环境搭建、网络诊断、CUDA配置、以及主流框架安装,这些正是深度学习环境搭建的核心环节。坚持下去,你离AI工程师的梦想又近了一步!
本文由主机测评网于2025-11-26发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/202511698.html