当前位置: 首页 > news >正文

o2o网站建设包括哪些咨询聊城做网站

o2o网站建设包括哪些,咨询聊城做网站,取消网站备案流程,wordpress下载管理插件下载import numpy as np import pandas as pdimport torch as tPyTorch将深度学习中常用的优化方法全部封装在torch.optim中#xff0c;其设计十分灵活#xff0c;能够很方便的扩展成自定义的优化方法。 所有的优化方法都是继承基类optim.Optimizer#xff0c;并实现了自己的优…import numpy as np import pandas as pdimport torch as tPyTorch将深度学习中常用的优化方法全部封装在torch.optim中其设计十分灵活能够很方便的扩展成自定义的优化方法。 所有的优化方法都是继承基类optim.Optimizer并实现了自己的优化步骤。下面就以最基本的优化方法——随机梯度下降法SGD举例说明。这里需重点掌握 优化方法的基本使用方法如何对模型的不同部分设置不同的学习率如何调整学习率 # 定义一个LeNet网络 class Net(t.nn.Module):def __init__(self):super(Net, self).__init__()self.features t.nn.Sequential(t.nn.Conv2d(3, 6, 5),t.nn.ReLU(),t.nn.MaxPool2d(2, 2),t.nn.Conv2d(6, 16, 5),t.nn.ReLU(),t.nn.MaxPool2d(2, 2))self.classifier t.nn.Sequential(t.nn.Linear(16*5*5, 120),t.nn.ReLU(),t.nn.Linear(120, 84),t.nn.ReLU(),t.nn.Linear(84, 10))def forward(self, x):x self.features(x)x x.view(-1, 16*5*5)x self.classifier(x)return xnet Net()optimizer t.optim.SGD(paramsnet.parameters(), lr1) optimizer.zero_grad() # 梯度清零input t.randn(1, 3, 32, 32) output net(input) output.backward(output) optimizer.step() # 执行优化# 为不同子网络设置不同的学习率在finetune中经常用到 # 如果对某个参数不指定学习率就使用最外层的默认学习率 optimizer t.optim.SGD([{params: net.features.parameters()}, # 学习率为1e-5{params: net.classifier.parameters(), lr: 1e-2}], lr1e-5) optimizerSGD ( Parameter Group 0dampening: 0differentiable: Falseforeach: Nonelr: 1e-05maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0Parameter Group 1dampening: 0differentiable: Falseforeach: Nonelr: 0.01maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0 )# 只为两个全连接层设置较大的学习率其余层的学习率较小 special_layers t.nn.ModuleList([net.classifier[0], net.classifier[3]]) special_layers_params list(map(id, special_layers.parameters())) base_params filter(lambda p: id(p) not in special_layers_params, net.parameters())optimizer t.optim.SGD([{params:base_params},{params:special_layers.parameters(), lr:0.01}], lr0.001) optimizerSGD ( Parameter Group 0dampening: 0differentiable: Falseforeach: Nonelr: 0.001maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0Parameter Group 1dampening: 0differentiable: Falseforeach: Nonelr: 0.01maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0 )对于如何调整学习率主要有两种做法。一种是修改optimizer.param_groups中对应的学习率另一种是更简单也是较为推荐的做法——新建优化器由于optimizer十分轻量级构建开销很小故而可以构建新的optimizer。但是后者对于使用动量的优化器如Adam会丢失动量等状态信息可能会造成损失函数的收敛出现震荡等情况。 # 方法1: 调整学习率新建一个optimizer old_lr 0.1 optimizer1 t.optim.SGD([{params: net.features.parameters()},{params: net.classifier.parameters(), lr: old_lr*0.1}], lr1e-5) optimizer1SGD ( Parameter Group 0dampening: 0differentiable: Falseforeach: Nonelr: 1e-05maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0Parameter Group 1dampening: 0differentiable: Falseforeach: Nonelr: 0.010000000000000002maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0 )# 方法2: 调整学习率, 手动decay, 保存动量 for param_group in optimizer.param_groups:param_group[lr] * 0.1 # 学习率为之前的0.1倍 optimizerSGD ( Parameter Group 0dampening: 0differentiable: Falseforeach: Nonelr: 0.0001maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0Parameter Group 1dampening: 0differentiable: Falseforeach: Nonelr: 0.001maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0 )
http://www.zqtcl.cn/news/366476/

相关文章:

  • 网站域名的后缀wordpress文章归类
  • 查询企业信息的官方网站大连建设网站公司
  • 网站建设 全包专业建设规划方案模板
  • 做网站好还是做微信小程序好浙江建设工程造价信息网站
  • 网站开发怎么报价推广普通话手抄报模板可打印
  • 好的平面网站模板企业网站建设浩森宇特
  • 做网站通过什么赚钱吗公司建设网站的费用
  • 如何做建筑一体化的网站视频网站开发应用到哪些技术
  • 巴中微信网站建设竞价托管一般多少钱
  • 彩票网站开发 违法股票网站排名哪个好
  • 宝格丽网站建设哈尔滨网站建设王道下拉強
  • 烟台网站建设的公司世界500强企业排名2021
  • 网络营销做得比较成功的案例吴中seo网站优化软件
  • 怎么设立网站美区下载的app怎么更新
  • 建立网站ppt做酒店网站所用到的算法
  • 上海网站建设的价格低太仓做网站的公司
  • 怎样登录建设互联网站怎么做中英文网站
  • 云网站7china中小企业网站建设好么
  • 美丽南方官网网站建设国际新闻最新消息今天摘抄
  • 牛商网营销型网站多少钱江门营销型网站建设多少钱
  • 小榄公司网站建设网站交互做的比较好的
  • 深圳定制网站建设怎么改版网站
  • 免费学软件的自学网站江阴建设局网站
  • 网站做多久苍南县网站集约化建设
  • 深圳电子烟网站建设罗湖建设公司网站建设
  • 酒店 深圳 网站建设新项目首码对接平台
  • 岳阳市住房和城乡建设局网站上海专业网站建设网
  • 营销型网站建设设定包括哪些方面网站建设后的心得
  • 建立网站来网上销售的英文潢川城乡建设局网站
  • 仿站建站教程网站怎么接广告