服务器网站管理软件,网站添加微博,北京响应式的网站设计,wordpress会员是主机么WSL 搭建深度学习环境#xff0c;流程基本上是一样的#xff0c;完整细节可参考我之前的博客#xff1a; 在WSL2-Ubuntu中安装CUDA12.8、cuDNN、Anaconda、Pytorch并验证安装_cuda 12.8 pytorch版本-CSDN博客 之所以记录下来#xff0c;是因为CUDA和cuDNN版本升级后#x…
WSL 搭建深度学习环境流程基本上是一样的完整细节可参考我之前的博客 在WSL2-Ubuntu中安装CUDA12.8、cuDNN、Anaconda、Pytorch并验证安装_cuda 12.8 pytorch版本-CSDN博客 之所以记录下来是因为CUDA和cuDNN版本升级后部分安装细节有调整便捷度提升所以单独开篇记录。 一、引言
因需安装依赖本地CUDA编译的软件包需完整部署CUDA Toolkit、cuDNN及PyTorch环境。从CUDA12.9版本起NVIDIA支持通过Anaconda安装cuDNN故调整流程为先装Anaconda前置→再装CUDA13.0→接着装cuDNN9.12→最后装PyTorch确保版本适配且操作高效关键步骤附官方及实操参考链接保障可复现性。 二、前提条件Windows端WSL端
一Windows系统准备
安装NVIDIA官方显卡驱动需支持CUDA13.0版本≥535.xx打开Windows cmd执行nvidia-smi确认输出中“CUDA Version”≥13.0启用WSL2并安装Ubuntu系统推荐22.04/24.04 LTS终端执行wsl --list --verbose确认WSL版本为2可选安装Microsoft Visual Studio用于跨平台编译需求参考CUDA官方前置要求。
二WSL2-Ubuntu准备
配置网络开启系统代理避免下载缓慢参考WSL2怎么设置网络自动代理权限与更新确保拥有sudo权限执行系统更新命令 sudo apt update sudo apt upgrade -y三、第一步安装Anaconda前置核心步骤 WSL - Linux 安装 Anaconda3-2025.06-0 详细教程 [WSL 分发版均适用]_wsl安装anaconda-CSDN博客 3.1 下载Anaconda安装包
从Anaconda官网查询最新Linux版本截至2025年8月推荐Anaconda3-2025.07-Linux-x86_64.sh终端执行下载命令保存至/tmp目录避免占用用户目录 wget -P /tmp https://repo.anaconda.com/archive/Anaconda3-2025.07-Linux-x86_64.sh3.2 运行安装脚本
执行安装命令 bash /tmp/Anaconda3-2025.07-Linux-x86_64.sh交互操作 按ENTER翻页阅读许可协议直至出现“Do you accept the license terms? [yes|no]”输入yes确认安装路径默认/home/[用户名]/anaconda3推荐默认按ENTER询问“是否初始化Anaconda到shell”必须输入yes自动配置环境变量为后续conda安装cuDNN铺路。
3.3 验证Anaconda安装
生效环境变量关闭当前终端并重新打开或执行source ~/.bashrcZsh用户为source ~/.zshrc验证命令 conda --version # 输出如“conda 25.7.0”说明conda命令可用
conda env list # 显示base环境及路径确认环境正常参考链接在 Windows 11 下的 WSL - Ubuntu 24.04 中安装 Anaconda3 四、第二步安装CUDA13.0 Toolkit
4.1 验证WSL与GPU通信
终端执行nvidia-smi确认输出中“CUDA Version”≥13.0若未显示需更新Windows端显卡驱动。
nvidia-smi 无需登录关闭登录窗口即可 CUDA 与 cuDNN 免登录下载政策详解基于官方权威信息_cudnn下载-CSDN博客 CUDA Toolkit 13.0 Downloads | NVIDIA Developer wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb
sudo apt-get update
sudo apt-get -y install cuda-toolkit-13-0
4.2 下载并安装CUDA密钥环
执行下载命令从NVIDIA WSL-Ubuntu专属仓库获取 (base) loveAI:~$ wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-keyring_1.1-1_all.deb下载日志 --2025-08-24 11:31:34-- https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-keyring_1.1-1_all.deb
Connecting to 127.0.0.1:7897... connected.
Proxy request sent, awaiting response... 200 OK
Length: 4328 (4.2K) [application/x-deb]
Saving to: ‘cuda-keyring_1.1-1_all.deb’
cuda-keyring_1.1-1_all.deb 100%[] 4.23K --.-KB/s in 0s
2025-08-24 11:31:36 (912 MB/s) - ‘cuda-keyring_1.1-1_all.deb’ saved [4328/4328]安装密钥环确保后续CUDA包来源可信 (base) loveAI:~$ sudo dpkg -i cuda-keyring_1.1-1_all.deb安装日志关键片段 [sudo] password for love:
Selecting previously unselected package cuda-keyring.
(Reading database ... 40769 files and directories currently installed.)
Preparing to unpack cuda-keyring_1.1-1_all.deb ...
Unpacking cuda-keyring (1.1-1) ...
Setting up cuda-keyring (1.1-1) ...4.3 更新软件源并安装CUDA13.0
更新软件包列表 (base) loveAI:~$ sudo apt-get update更新日志关键片段 Hit:1 http://security.ubuntu.com/ubuntu noble-security InRelease
Hit:2 http://archive.ubuntu.com/ubuntu noble InRelease
Get:3 http://archive.ubuntu.com/ubuntu noble-updates InRelease [126 kB]
Get:4 https://developer.download.nvidia.cn/compute/cuda/repos/wsl-ubuntu/x86_64 InRelease [1581 B]
Fetched 3275 kB in 4s (741 kB/s)
Reading package lists... Done安装CUDA13.0 Toolkit指定版本避免自动升级 (base) loveAI:~$ sudo apt-get -y install cuda-toolkit-13-0安装过程系统自动下载3389 MB依赖包含cuda-cccl-13-0、cuda-nvcc-13-0等核心组件最终提示“Setting up cuda-toolkit-13-0 (13.0.0-1) …”表示安装完成。
4.4 配置CUDA环境变量 编辑shell配置文件以Bash为例 nano ~/.bashrc在文件末尾添加以下内容指定CUDA13.0安装路径 export PATH/usr/local/cuda-13.0/bin:$PATH
export LD_LIBRARY_PATH/usr/local/cuda-13.0/lib64:$LD_LIBRARY_PATH
export CUDA_HOME/usr/local/cuda-13.0保存并生效按CtrlX→输入Y→按ENTER执行source ~/.bashrc。
4.5 验证CUDA13.0安装
nvcc -V # 输出如“Cuda compilation tools, release 13.0, V13.0.48”
ls /usr/local/cuda-13.0 # 显示bin、lib64、include等目录确认安装完整性参考链接在 Windows 11 下的 WSL - Ubuntu 24.04 中安装 CUDA 的记录 官方指引CUDA下载WSL-Ubuntu deb_network方式 五、第三步安装cuDNN9.12Anaconda方式 CUDA 深度神经网络库 (cuDNN) | NVIDIA 开发者 同样是免登录下载和安装。 官方文档更新未及时注意修改“cuda-version”的版本号。
一般 cuDNN 能自动降级适配CUDA但较老的 cuDNN 版本可能无法向后兼容较新版本的 CUDA 。
cuDNN 安装命令
conda install nvidia::cudnn cuda-version13
或者
conda install nvidia::cudnn9.12 cuda-version13
5.1 激活Anaconda环境
确保处于base环境终端前缀显示(base)若未激活执行 conda activate base可选创建独立虚拟环境推荐避免污染base环境 conda create -n cuda13_env python3.13 # 适配Python 3.13版本
conda activate cuda13_env5.2 通过conda安装cuDNN9.12
执行安装命令指定与CUDA13.0兼容的cuDNN9.12版本 (base) loveAI:~$ conda install nvidia::cudnn9.12 cuda-version13安装日志关键片段 Channels:- defaults- nvidia
Platform: linux-64
Collecting package metadata (repodata.json): done
Solving environment: done
## Package Plan ##environment location: /home/love/anaconda3added / updated specs:- cuda-version13- nvidia::cudnn9.12
The following NEW packages will be INSTALLED:cuda-version pkgs/main/noarch::cuda-version-13.0-hbda6634_3cudnn nvidia/linux-64::cudnn-9.12.0.46-h2b6041c_0libcudnn nvidia/linux-64::libcudnn-9.12.0.46-h24322f0_0libcudnn-dev nvidia/linux-64::libcudnn-dev-9.12.0.46-h2b6041c_0
Proceed ([y]/n)? y
Downloading and Extracting Packages:
Preparing transaction: done
Verifying transaction: done
Executing transaction: done5.3 验证cuDNN9.12安装
查看conda已安装包 conda list | grep cudnn # 输出“cudnn 9.12.0.46 h2b6041c_0 nvidia”检查库文件路径conda环境内 ls $CONDA_PREFIX/lib/libcudnn* # 显示libcudnn.so、libcudnn_static.a等文件参考链接Windows 11 系统下通过 WSL 里的 Ubuntu 24.04 安装 CUDNN 记录 CUDA与cuDNN适配说明是否需要预先安装CUDA Toolkit? 六、第四步安装PyTorch适配CUDA13.0 Get Started pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu129
6.1 执行安装命令
从PyTorch官方仓库https://download.pytorch.org/whl/cu129 安装适配CUDA13.0的版本CUDA向下兼容cu129包支持CUDA13.0
(base) loveAI:~$ pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu1296.2 安装日志关键片段
Looking in indexes: https://download.pytorch.org/whl/cu129
Collecting torchDownloading https://download.pytorch.org/whl/cu129/torch-2.8.0%2Bcu129-cp313-cp313-manylinux_2_28_x86_64.whl.metadata (30 kB)
Collecting torchvisionDownloading https://download.pytorch.org/whl/cu129/torchvision-0.23.0%2Bcu129-cp313-cp313-manylinux_2_28_x86_64.whl.metadata (6.1 kB)
# 自动下载依赖nvidia-cuda-nvrtc-cu12、nvidia-cudnn-cu12等
Downloading https://download.pytorch.org/whl/cu129/torch-2.8.0%2Bcu129-cp313-cp313-manylinux_2_28_x86_64.whl (1240.3 MB)━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 1.2/1.2 GB 1.9 MB/s eta 0:00:00
Successfully installed nvidia-cublas-cu12-12.9.1.4 ... torch-2.8.0cu129 torchvision-0.23.0cu129 triton-3.4.0七、第五步完整验证深度学习环境 验证PyTorch深度学习环境Torch和CUDA还有cuDNN是否正确配置的命令-CSDN博客 验证代码示例python环境
import torch # 导入 PyTorch 库print(PyTorch 版本, torch.__version__) # 打印 PyTorch 的版本号# 检查 CUDA 是否可用并设置设备cuda:0 或 cpu
device torch.device(cuda:0 if torch.cuda.is_available() else cpu)
print(设备, device) # 打印当前使用的设备
print(CUDA 可用, torch.cuda.is_available()) # 打印 CUDA 是否可用
print(cuDNN 已启用, torch.backends.cudnn.enabled) # 打印 cuDNN 是否已启用# 打印 PyTorch 支持的 CUDA 和 cuDNN 版本
print(支持的 CUDA 版本, torch.version.cuda)
print(cuDNN 版本, torch.backends.cudnn.version())# 创建两个随机张量默认在 CPU 上
x torch.rand(5, 3)
y torch.rand(5, 3)# 将张量移动到指定设备CPU 或 GPU
x x.to(device)
y y.to(device)# 对张量进行逐元素相加
z x y# 打印结果
print(张量 z 的值)
print(z) # 输出张量 z 的内容
7.1 Python交互模式验证核心步骤
终端进入Python环境 (base) loveAI:~$ python
Python 3.13.5 | packaged by Anaconda, Inc. | (main, Jun 12 2025, 16:09:02) [GCC 11.2.0] on linux
Type help, copyright, credits or license for more information.执行验证代码 import torch
# 1. 验证版本信息
print(PyTorch 版本, torch.__version__) # 输出“2.8.0cu129”
print(支持的 CUDA 版本, torch.version.cuda) # 输出“12.9”向下兼容CUDA13.0
print(cuDNN 版本, torch.backends.cudnn.version()) # 输出“91204”对应cuDNN9.12# 2. 验证GPU可用性
print(CUDA 可用, torch.cuda.is_available()) # 输出“True”
print(cuDNN 已启用, torch.backends.cudnn.enabled) # 输出“True”
device torch.device(cuda:0 if torch.cuda.is_available() else cpu)
print(当前设备, device) # 输出“cuda:0”
print(GPU 设备名, torch.cuda.get_device_name(0)) # 输出GPU型号如“NVIDIA GeForce RTX 4090”# 3. 验证GPU张量运算核心功能验证
x torch.rand(5, 3).to(device) # 创建随机张量并转移到GPU
y torch.rand(5, 3).to(device)
z x y # GPU上执行张量相加
print(GPU 张量运算结果\n, z)预期输出示例 PyTorch 版本 2.8.0cu129
支持的 CUDA 版本 12.9
cuDNN 版本 91204
CUDA 可用 True
cuDNN 已启用 True
当前设备 cuda:0
GPU 设备名 NVIDIA GeForce RTX 4090
GPU 张量运算结果tensor([[1.0225, 1.4994, 1.9415],[0.8256, 1.4385, 1.3833],[0.8874, 0.4490, 1.1313],[1.4452, 0.3707, 1.2173],[0.8632, 1.1795, 1.0678]], devicecuda:0)7.2 额外验证可选确保编译功能
验证CUDA编译器 nvcc --version # 确认CUDA编译器正常支持本地编译验证conda环境与系统CUDA协同 echo $CUDA_HOME # 输出“/usr/local/cuda-13.0”确认环境变量生效
echo $LD_LIBRARY_PATH | grep $CONDA_PREFIX/lib # 确认conda的cuDNN路径被识别八、注意事项与常见问题
版本兼容性 确保cuDNN版本9.12与CUDA13.0匹配可通过NVIDIA cuDNN兼容性表查询Python版本推荐3.9~3.13避免过高版本导致依赖包不兼容。 网络问题 若conda/pip下载缓慢配置国内镜像如清华conda镜像conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/nvidia/若CUDA源无法访问替换为中科大CUDA源sudo sed -i s/developer.download.nvidia.com/mirrors.ustc.edu.cn\/nvidia-cuda/ /etc/apt/sources.list.d/cuda.list。 编译报错处理 若报错“nvcc not found”重新执行source ~/.bashrc若报错“libcudnn.so not found”激活conda环境conda activate cuda13_env并执行export LD_LIBRARY_PATH$CONDA_PREFIX/lib:$LD_LIBRARY_PATH。 九、结语
本文完成WSL2-Ubuntu中Anaconda→CUDA13.0→cuDNN9.12→PyTorch的完整部署通过实操日志和多维度验证确保环境支持本地CUDA编译与GPU加速深度学习任务。后续可基于此环境安装依赖CUDA的自定义软件包如深度学习框架插件、自定义算子直接用于模型训练与推理开发。 参考链接汇总 Anaconda安装https://aicity.blog.csdn.net/article/details/144737143?spm1011.2415.3001.10575sharefrommp_manage_linkCUDA13.0安装https://aicity.blog.csdn.net/article/details/144735570?spm1011.2415.3001.10575sharefrommp_manage_link官方指引https://developer.nvidia.com/cuda-downloads?target_osLinuxtarget_archx86_64DistributionWSL-Ubuntutarget_version2.0target_typedeb_networkcuDNN9.12安装https://aicity.blog.csdn.net/article/details/144734627?spm1011.2415.3001.10575sharefrommp_manage_link网络代理配置https://blog.csdn.net/u014451778/article/details/146073726?sharetypeblogshareId146073726sharereferAPPsharesourceu014451778sharefromlinkCUDA Toolkit场景说明https://aicity.blog.csdn.net/article/details/148660071?spm1011.2415.3001.10575sharefrommp_manage_linkPyTorch下载源https://download.pytorch.org/whl/cu129