当前位置: 首页 > news >正文

鄂州网站seo室内设计联盟官方网站入口

鄂州网站seo,室内设计联盟官方网站入口,广州公司注册官网,昆明网站建设wang.cd注#xff1a;本文为《动手学深度学习》开源内容#xff0c;部分标注了个人理解#xff0c;仅为个人学习记录#xff0c;无抄袭搬运意图 4.6 GPU计算 到目前为止#xff0c;我们一直在使用CPU计算。对复杂的神经网络和大规模的数据来说#xff0c;使用CPU来计算可能不够… 注本文为《动手学深度学习》开源内容部分标注了个人理解仅为个人学习记录无抄袭搬运意图 4.6 GPU计算 到目前为止我们一直在使用CPU计算。对复杂的神经网络和大规模的数据来说使用CPU来计算可能不够高效。在本节中我们将介绍如何使用单块NVIDIA GPU来计算。所以需要确保已经安装好了PyTorch GPU版本。准备工作都完成后下面就可以通过nvidia-smi命令来查看显卡信息了。 !nvidia-smi # 对Linux/macOS用户有效输出 Sun Mar 17 14:59:57 2019 ----------------------------------------------------------------------------- | NVIDIA-SMI 390.48 Driver Version: 390.48 | |--------------------------------------------------------------------------- | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | || | 0 GeForce GTX 1050 Off | 00000000:01:00.0 Off | N/A | | 20% 36C P5 N/A / 75W | 1223MiB / 2000MiB | 0% Default | -------------------------------------------------------------------------------------------------------------------------------------------------------- | Processes: GPU Memory | | GPU PID Type Process name Usage | || | 0 1235 G /usr/lib/xorg/Xorg 434MiB | | 0 2095 G compiz 163MiB | | 0 2660 G /opt/teamviewer/tv_bin/TeamViewer 5MiB | | 0 4166 G /proc/self/exe 416MiB | | 0 13274 C /home/tss/anaconda3/bin/python 191MiB | -----------------------------------------------------------------------------可以看到我这里只有一块GTX 1050显存一共只有2000M太惨了。 4.6.1 计算设备 PyTorch可以指定用来存储和计算的设备如使用内存的CPU或者使用显存的GPU。默认情况下PyTorch会将数据创建在内存然后利用CPU来计算。 用torch.cuda.is_available()查看GPU是否可用: import torch from torch import nntorch.cuda.is_available() # 输出 True查看GPU数量 torch.cuda.device_count() # 输出 1查看当前GPU索引号索引号从0开始 torch.cuda.current_device() # 输出 0根据索引号查看GPU名字: torch.cuda.get_device_name(0) # 输出 GeForce GTX 10504.6.2 Tensor的GPU计算 默认情况下Tensor会被存在内存上。因此之前我们每次打印Tensor的时候看不到GPU相关标识。 x torch.tensor([1, 2, 3]) x输出 tensor([1, 2, 3])使用.cuda()可以将CPU上的Tensor转换复制到GPU上。如果有多块GPU我们用.cuda(i)来表示第 i i i 块GPU及相应的显存 i i i从0开始且cuda(0)和cuda()等价。 x x.cuda(0) x输出 tensor([1, 2, 3], devicecuda:0)我们可以通过Tensor的device属性来查看该Tensor所在的设备。 x.device输出 device(typecuda, index0)我们可以直接在创建的时候就指定设备。 device torch.device(cuda if torch.cuda.is_available() else cpu)x torch.tensor([1, 2, 3], devicedevice) # or x torch.tensor([1, 2, 3]).to(device) x输出 tensor([1, 2, 3], devicecuda:0)如果对在GPU上的数据进行运算那么结果还是存放在GPU上。 y x**2 y输出 tensor([1, 4, 9], devicecuda:0)需要注意的是存储在不同位置中的数据是不可以直接进行计算的。即存放在CPU上的数据不可以直接与存放在GPU上的数据进行运算位于不同GPU上的数据也是不能直接进行计算的。 z y x.cpu()会报错: RuntimeError: Expected object of type torch.cuda.LongTensor but found type torch.LongTensor for argument #3 other4.6.3 模型的GPU计算 同Tensor类似PyTorch模型也可以通过.cuda转换到GPU上。我们可以通过检查模型的参数的device属性来查看存放模型的设备。 net nn.Linear(3, 1) list(net.parameters())[0].device输出 device(typecpu)可见模型在CPU上将其转换到GPU上: net.cuda() list(net.parameters())[0].device输出 device(typecuda, index0)同样的我么需要保证模型输入的Tensor和模型都在同一设备上否则会报错。 x torch.rand(2,3).cuda() net(x)输出 tensor([[-0.5800],[-0.2995]], devicecuda:0, grad_fnThAddmmBackward)小结 PyTorch可以指定用来存储和计算的设备如使用内存的CPU或者使用显存的GPU。在默认情况下PyTorch会将数据创建在内存然后利用CPU来计算。PyTorch要求计算的所有输入数据都在内存或同一块显卡的显存上。 注本节与原书此节有一些不同原书传送门
http://www.zqtcl.cn/news/303645/

相关文章:

  • 洛阳免费网站建设自己做网站最新视频教程
  • 网站备案查询 美橙网开发app需要的技术
  • 软件产品如何做网站推广昆山外贸网站建设推广
  • 景德镇市城市建设规划网站wordpress用不了了
  • 网站及新媒体建设宣传片wordpress 无法编辑主题
  • 东莞设计网站重庆做腋臭骑士网站
  • 什么软件可以搜索关键词精准网站信息优化的方式
  • 购物网站排名前十名山东泰安建筑工程集团有限公司
  • 源码下载站用vs网站开发
  • 自己做网站seo彩票的网站怎么做
  • 如何在网站后台找到死链接网站内页权重查询
  • 专业做国际网站网站开发的编程软件
  • 如何运营垂直网站网页工具大全
  • 如何让自己做的网站可以播放歌曲做培训网站
  • 做网站的毕业设计网站没备案怎么做淘宝客
  • 百度申诉网站建设银行住房租赁代表品牌是什么
  • 网站初期推广方案虚拟服务器搭建wordpress
  • jeecms可以做网站卖吗山西网络推广专业
  • 2017 如何做网站优化育儿哪个网站做的好
  • 网站制作容易吗青岛网站建设公司报价
  • 淘宝建设网站的好处网站制作结构
  • 网站开发网站建设公司临沂网站建设找谁
  • 咋么做网站在电脑上潍坊免费模板建站
  • 苏州网站建设推广咨询平台做网站的公司图
  • 北京企业网站怎么建设免费给我推广
  • 网站制作价钱多少专业的咨询行业网站制作
  • 做百度网站每年的费用多少交换友情链接时需要注意的事项
  • 怎么在百度网站上做自己的网站百度开户渠道
  • php技术的网站建设实录方案做二手手机的网站有哪些
  • 做网站店铺装修的软件怎么做淘课网站