当前位置:首页 > 系统教程 > 正文

Windows上构建大模型开发环境:WSL2与Ubuntu22.04配置指南

Windows上构建大模型开发环境:WSL2与Ubuntu22.04配置指南

(从零开始搭建AI深度学习开发环境)

随着大模型(LLM)的爆火,越来越多的开发者希望在Windows系统下利用GPU进行模型训练和推理。然而,许多AI框架(如PyTorch、TensorFlow)在Linux环境下的支持更完善。通过WSL2安装,我们可以在Windows上无缝运行Ubuntu22.04,并充分利用NVIDIA显卡进行加速。本文提供保姆级教程,帮助小白一步步搭建完整的Windows大模型开发环境搭建

Windows上构建大模型开发环境:WSL2与Ubuntu22.04配置指南 WSL2安装教程 Ubuntu22.04配置大模型环境 Windows大模型开发环境搭建 CUDA安装WSL2 第1张

1. 准备工作:检查Windows版本与硬件

确保你的Windows 10/11是64位,版本号不低于2004(Build 19041)或Windows 11。CPU必须支持并开启虚拟化(BIOS中启用VT-x/AMD-V)。至少16GB内存,推荐32GB以上;NVIDIA显卡(GTX 10系以上)且驱动已更新到最新。

2. 启用WSL2和虚拟机平台

以管理员身份打开PowerShell或命令提示符,执行以下命令:dism.exe /online /enable-feature /featurename:Microsoft-Windows-Subsystem-Linux /all /norestartdism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart完成后重启电脑。

3. 安装WSL2内核更新包

下载并安装WSL2 Linux内核更新包https://aka.ms/wsl2kernel。安装后,在PowerShell中运行:wsl --set-default-version 2

4. 安装Ubuntu22.04

打开Microsoft Store,搜索“Ubuntu 22.04.3 LTS”并安装。或使用命令行:wsl --install -d Ubuntu-22.04首次启动会要求创建用户名和密码,请牢记。

5. 更新系统与安装基础工具

进入Ubuntu终端,执行:sudo apt update && sudo apt upgrade -ysudo apt install build-essential gcc make -y

6. 安装NVIDIA驱动(Windows端)与WSL2 CUDA支持

在Windows下安装NVIDIA驱动(版本525.60.13以上)后,WSL2会自动继承该驱动。无需在Linux内额外安装显卡驱动!但需要安装CUDA Toolkit以便编译和运行CUDA程序。

7. 安装CUDA Toolkit(WSL2专用版本)

访问NVIDIA官网,选择CUDA安装WSL2的对应指南。推荐使用deb网络安装方式:wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-keyring_1.1-1_all.debsudo dpkg -i cuda-keyring_1.1-1_all.debsudo apt updatesudo apt install cuda -y安装后添加环境变量到~/.bashrc:export PATH=/usr/local/cuda/bin:$PATHexport LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH执行source ~/.bashrc并验证nvcc -V

8. 安装cuDNN(可选但推荐)

下载cuDNN(需注册NVIDIA账号),选择与CUDA匹配的版本。解压后复制到cuda目录:tar -xzvf cudnn-linux-x86_64-8.x.x.x_cuda11-archive.tar.xzsudo cp cudnn--archive/include/cudnn.h /usr/local/cuda/includesudo cp -P cudnn--archive/lib/libcudnn /usr/local/cuda/lib64sudo chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn*

9. 安装Miniconda(Python环境管理)

下载Miniconda安装脚本:wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.shbash Miniconda3-latest-Linux-x86_64.sh按提示完成,并重启终端或source ~/.bashrc

10. 创建大模型开发虚拟环境

conda create -n llm python=3.10 -y conda activate llm

11. 安装PyTorch(CUDA版)

根据PyTorch官网选择对应CUDA版本的命令。例如CUDA 12.1:pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121测试GPU是否可用:python -c "import torch; print(torch.cuda.is_available())" 应输出True。

12. 安装Hugging Face Transformers库

pip install transformers datasets accelerate可下载一个小型模型测试:python -c "from transformers import pipeline; print(pipeline("sentiment-analysis")("I love WSL2!"))"

13. 进阶:安装Docker with GPU支持(可选)

若需要使用容器化开发,可安装Docker Desktop并启用WSL2后端,然后在Ubuntu内安装nvidia-container-toolkit。

14. 总结与常见问题

至此,你已经完成了Ubuntu22.04配置大模型环境的全部步骤。现在可以在WSL2中愉快地运行LLaMA、ChatGLM等大模型了。如果遇到CUDA不可用,请检查Windows驱动版本和WSL2内核更新。希望这份WSL2安装教程能帮助你在Windows上顺利开启大模型探索之旅!

—— 全文完 ——