客户网站开发全流程,wordpress电影资源主题,网站自己做推广,企业网站制作多少钱在进行pytorch 相关程序开发时#xff0c;有时需要根据自己的规划使用系统中的多块NVidia GPU 设备#xff0c;可以通过如下几种方法来指定GPU设备#xff1a;
当服务器有多个GPU卡时#xff0c;通过设置 CUDA_VISIBLE_DEVICES环境变量可以改变CUDA程序所能使用的GPU设备有时需要根据自己的规划使用系统中的多块NVidia GPU 设备可以通过如下几种方法来指定GPU设备
当服务器有多个GPU卡时通过设置 CUDA_VISIBLE_DEVICES环境变量可以改变CUDA程序所能使用的GPU设备默认情况下标号为0的显卡为主卡。
GPU卡号编码规则
当主机有多个GPU设备时设置CUDA_VISIBLE_DEVICES 环境变量可以改变CUDA程序所能使用的GPU设备。假如主机中有4块GPU设备那么这些GPU设备的默认编号为[0,1,2,3]在默认情况下编号为0的显卡为第一块卡。多卡设置规则如下
设置示例意义说明CUDA_VISIBLE_DEVICES1仅仅第二块卡对当前环境可见CUDA_VISIBLE_DEVICES0,1 或者 CUDA_VISIBLE_DEVICES0,1仅仅第一块卡与第二块卡对当前环境可见如果设置多块卡可以添加引号引号是可选的CUDA_VISIBLE_DEVICES0,2,3仅仅GPU设备第一块第三块第四块 为可见设备第二块不可见
备注规则 CUDA应用运行时CUDA将遍历当前可见的设备并从零开始为可见设备编号。 第一种情况卡1设置为主卡但CUDA遍历时会设置为可见编号0。 最后一种情况设备0,2,3将显示为设备0,1,2。 如果将字符串的顺序更改为“2,3,0”则设备2,3,0将分别被设置为0,1,2。 如果为CUDA_VISIBLE_DEVICES 设置了不存在的设备所有实际设备将被隐藏CUDA 应用将无法使用GPU设备如果设备序列是存在和不存在设备的混合那么不存在设备前的所有存在设备将被重新编号不存在设备之后的所有设备将被屏蔽。 当前可见的重新编号后的设备可使用CUDA 程序来查看代码如下
import torch
print(torch.cuda.current_device())
下面说明如何设置GPU卡的使用
一、临时设置 1.1、通过命令提前设置环境变量
#Linux 后面的值为要使用的GPU编号正常的话是从0开始
export CUDA_VISIBLE_DEVICES0
#windows:
set CUDA_VISIBLE_DEVICES0
1.2、在Python代码中设置环境变量
import os
# 仅设置一块可见
os.environ[CUDA_VISIBLE_DEVICES] 0
# 设置多块可见
os.environ[CUDA_VISIBLE_DEVICES] 0,2,3
1.3、在命令行前指定
CUDA_VISIBLE_DEVICES0 python some-app.py
二、永久设置
通过编辑 ~/.bashrc 文件来永久设置系统启动时将加载 ~/.bashrc 文件达到自动设置的目的。
export CUDA_VISIBLE_DEVICES1,2,3
然后通过 如下命令刷新环境变量 . ~/.bashrc 三、使用torch.cuda接口
import torch
#当前可见的重新编号后的设备可使用如下代码来查看
print(torch.cuda.current_device())torch.cuda.set_device(0)
#或者 使用pytorch的并行GPU接口
net torch.nn.DataParallel(model, device_ids[0])#确定GPU的个数
count torch.cuda.device_count()
#决策使用哪个设备
device torch.device(cuda:0 if torch.cuda.is_available() else cpu)#把一个模型放到GPU上device torch.device(cuda:0)
model.to(device)
四、使用torch.nn.DataParallel
多卡数据并行一般使用torch.nn.DataParallel
torch.nn.DataParallel(model,device_ids)使用的GPU一定是编号连续的其中model是需要运行的模型device_ids指定部署模型的显卡数据类型是list/device。device_ids中的第一个GPU即device_ids[0]和model.cuda()或torch.cuda.set_device()中的第一个GPU序号应保持一致否则会报错举例
torch.nn.DataParallel(model, device_idsdevice_ids)
torch.nn.DataParallel(modul, device_ids[x1,x2,x3,x4,x5,x6,x7])torch.nn.DataParallel(model,device_ids range(torch.cuda.device_count()) )
此外如果两者的第一个GPU序号都不是0,比如设置为 如下代码程序可以在GPU2和GPU3上正常运行。
device_ids的默认值是使用可见的GPU不设置model.cuda()或torch.cuda.set_device()等效于设置了model.cuda(0)modeltorch.nn.DataParallel(model,device_ids[2,3])
model.cuda(2)#模型绑定GPU代码
model model.cuda()
device_ids [0, 1]
model torch.nn.DataParallel(model, device_idsdevice_ids)