回龙观网站建设,合肥论坛网站制作,在线做交互网站,凤岗网站仿做加上一个CUDA_VISIBLE_DEVICES0,2就行了#xff0c;使用0卡和2卡跑模型#xff0c;注意多卡有时候比单卡慢#xff0c;4090无NVlink#xff0c;数据似乎是通过串行的方式传输到多个gpu的#xff0c;只不过单个gpu是并行计算#xff0c;数据在gpu与gpu之间似乎是串行传输的…加上一个CUDA_VISIBLE_DEVICES0,2就行了使用0卡和2卡跑模型注意多卡有时候比单卡慢4090无NVlink数据似乎是通过串行的方式传输到多个gpu的只不过单个gpu是并行计算数据在gpu与gpu之间似乎是串行传输的如果第一个卡的显存实在是太过于紧张只有几十mb可用也可能导致cuda out of memory 指定0卡和2卡
CUDA_VISIBLE_DEVICES0,2 python main.py指定2卡
CUDA_VISIBLE_DEVICES2 python main.py----- 确保CUDA可用安装了与cuda对应的pytorch
import torch
print(torch.cuda.is_available())