当前位置: 首页 > news >正文

镇江建设网站的公司宁波全网营销型网站建设

镇江建设网站的公司,宁波全网营销型网站建设,简述网站建设优劣的评价标准,m开头的网站建设公司import numpy as np import pandas as pdimport torch as tPyTorch将深度学习中常用的优化方法全部封装在torch.optim中#xff0c;其设计十分灵活#xff0c;能够很方便的扩展成自定义的优化方法。 所有的优化方法都是继承基类optim.Optimizer#xff0c;并实现了自己的优…import numpy as np import pandas as pdimport torch as tPyTorch将深度学习中常用的优化方法全部封装在torch.optim中其设计十分灵活能够很方便的扩展成自定义的优化方法。 所有的优化方法都是继承基类optim.Optimizer并实现了自己的优化步骤。下面就以最基本的优化方法——随机梯度下降法SGD举例说明。这里需重点掌握 优化方法的基本使用方法如何对模型的不同部分设置不同的学习率如何调整学习率 # 定义一个LeNet网络 class Net(t.nn.Module):def __init__(self):super(Net, self).__init__()self.features t.nn.Sequential(t.nn.Conv2d(3, 6, 5),t.nn.ReLU(),t.nn.MaxPool2d(2, 2),t.nn.Conv2d(6, 16, 5),t.nn.ReLU(),t.nn.MaxPool2d(2, 2))self.classifier t.nn.Sequential(t.nn.Linear(16*5*5, 120),t.nn.ReLU(),t.nn.Linear(120, 84),t.nn.ReLU(),t.nn.Linear(84, 10))def forward(self, x):x self.features(x)x x.view(-1, 16*5*5)x self.classifier(x)return xnet Net()optimizer t.optim.SGD(paramsnet.parameters(), lr1) optimizer.zero_grad() # 梯度清零input t.randn(1, 3, 32, 32) output net(input) output.backward(output) optimizer.step() # 执行优化# 为不同子网络设置不同的学习率在finetune中经常用到 # 如果对某个参数不指定学习率就使用最外层的默认学习率 optimizer t.optim.SGD([{params: net.features.parameters()}, # 学习率为1e-5{params: net.classifier.parameters(), lr: 1e-2}], lr1e-5) optimizerSGD ( Parameter Group 0dampening: 0differentiable: Falseforeach: Nonelr: 1e-05maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0Parameter Group 1dampening: 0differentiable: Falseforeach: Nonelr: 0.01maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0 )# 只为两个全连接层设置较大的学习率其余层的学习率较小 special_layers t.nn.ModuleList([net.classifier[0], net.classifier[3]]) special_layers_params list(map(id, special_layers.parameters())) base_params filter(lambda p: id(p) not in special_layers_params, net.parameters())optimizer t.optim.SGD([{params:base_params},{params:special_layers.parameters(), lr:0.01}], lr0.001) optimizerSGD ( Parameter Group 0dampening: 0differentiable: Falseforeach: Nonelr: 0.001maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0Parameter Group 1dampening: 0differentiable: Falseforeach: Nonelr: 0.01maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0 )对于如何调整学习率主要有两种做法。一种是修改optimizer.param_groups中对应的学习率另一种是更简单也是较为推荐的做法——新建优化器由于optimizer十分轻量级构建开销很小故而可以构建新的optimizer。但是后者对于使用动量的优化器如Adam会丢失动量等状态信息可能会造成损失函数的收敛出现震荡等情况。 # 方法1: 调整学习率新建一个optimizer old_lr 0.1 optimizer1 t.optim.SGD([{params: net.features.parameters()},{params: net.classifier.parameters(), lr: old_lr*0.1}], lr1e-5) optimizer1SGD ( Parameter Group 0dampening: 0differentiable: Falseforeach: Nonelr: 1e-05maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0Parameter Group 1dampening: 0differentiable: Falseforeach: Nonelr: 0.010000000000000002maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0 )# 方法2: 调整学习率, 手动decay, 保存动量 for param_group in optimizer.param_groups:param_group[lr] * 0.1 # 学习率为之前的0.1倍 optimizerSGD ( Parameter Group 0dampening: 0differentiable: Falseforeach: Nonelr: 0.0001maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0Parameter Group 1dampening: 0differentiable: Falseforeach: Nonelr: 0.001maximize: Falsemomentum: 0nesterov: Falseweight_decay: 0 )
http://www.zqtcl.cn/news/675129/

相关文章:

  • 房地产网站建设价格买卖网站
  • 网站宣传方案开发专业网站
  • 电子商务+网站建设wordpress首页幻灯
  • 网站建设表格的属性学校网站建设命名
  • 清远网站建设自学网站开发要多久
  • 可信网站 quot 验证能防范哪些安全.教育类app开发价格表
  • 网站设计服务流程深圳网站设计公司费用大概多少
  • 邮件网站怎么做的本地计算机做网站服务器
  • 自己建的网站打不开html5 手机网站 模版
  • 网站建设跟网站结构如何提高网站排名的方法
  • 网站模板 缓存商标网上开店创业计划书
  • 沧州网站建设微艾薇怎样给企业做网站
  • 如何做淘宝客的网站个人网站设计与制作代码
  • 信用门户网站建设观摩惠州专业做网站
  • wordpress打开网站前广告佛山百度推广seo服务
  • 松北建设局网站vps 用ip可以访问网站么
  • 网站图片内容免费开源crm
  • wordpress调用分类栏目wordpress文章优化
  • 建站公司上海企业官网模板下载
  • 网站建设推广话术wordpress 不显示缩略图
  • 企业电子商务网站建设和一般百拓公司做网站怎么样
  • 吉林网站建设司上海什么做网站的公司比较好
  • 吉安市建设规划局网站jsp wordpress
  • 建设银行贵金属网站微信小程序注册后怎么使用
  • 如何做律师网站河南建网站 优帮云
  • 云阳如何做网站网站建设旅游
  • 推荐一个简单的网站制作单位网站服务的建设及维护
  • tp5网站文档归档怎么做网站 信用卡支付接口
  • phpcms 企业网站网站建设中单页代码
  • 坑梓网站建设方案网络编程技术及应用