当前位置: 首页 > news >正文

长春建设工程信息网站毕业设计选择做网站的意义

长春建设工程信息网站,毕业设计选择做网站的意义,重庆网站备案规定,家装效果图用什么软件哪个好注#xff1a;本文为《动手学深度学习》开源内容#xff0c;仅为个人学习记录#xff0c;无抄袭搬运意图 3.7 softmax回归的简洁实现 我们在3.3节#xff08;线性回归的简洁实现#xff09;中已经了解了使用Pytorch实现模型的便利。下面#xff0c;让我们再次使用Pytorc… 注本文为《动手学深度学习》开源内容仅为个人学习记录无抄袭搬运意图 3.7 softmax回归的简洁实现 我们在3.3节线性回归的简洁实现中已经了解了使用Pytorch实现模型的便利。下面让我们再次使用Pytorch来实现一个softmax回归模型。首先导入所需的包或模块。 import torch from torch import nn from torch.nn import init import numpy as np import sys sys.path.append(..) import d2lzh_pytorch as d2l3.7.1 获取和读取数据 我们仍然使用Fashion-MNIST数据集和上一节中设置的批量大小。 batch_size 256 train_iter, test_iter d2l.load_data_fashion_mnist(batch_size)3.7.2 定义和初始化模型 在3.4节softmax回归中提到softmax回归的输出层是一个全连接层所以我们用一个线性模块就可以了。因为前面我们数据返回的每个batch样本x的形状为(batch_size, 1, 28, 28), 所以我们要先用view()将x的形状转换成(batch_size, 784)才送入全连接层。 num_inputs 784 num_outputs 10class LinearNet(nn.Module):def __init__(self, num_inputs, num_outputs):super(LinearNet, self).__init__()self.linear nn.Linear(num_inputs, num_outputs)def forward(self, x): # x shape: (batch, 1, 28, 28)y self.linear(x.view(x.shape[0], -1))return ynet LinearNet(num_inputs, num_outputs)我们将对x的形状转换的这个功能自定义一个FlattenLayer并记录在d2lzh_pytorch中方便后面使用。 # 本函数已保存在d2lzh_pytorch包中方便以后使用 class FlattenLayer(nn.Module):def __init__(self):super(FlattenLayer, self).__init__()def forward(self, x): # x shape: (batch, *, *, ...)return x.view(x.shape[0], -1)这样我们就可以更方便地定义我们的模型 from collections import OrderedDictnet nn.Sequential(# FlattenLayer(),# nn.Linear(num_inputs, num_outputs)OrderedDict([(flatten, FlattenLayer()),(linear, nn.Linear(num_inputs, num_outputs))]) )然后我们使用均值为0、标准差为0.01的正态分布随机初始化模型的权重参数。 init.normal_(net.linear.weight, mean0, std0.01) init.constant_(net.linear.bias, val0) 3.7.3 softmax和交叉熵损失函数 如果做了上一节的练习那么你可能意识到了分开定义softmax运算和交叉熵损失函数可能会造成数值不稳定。因此PyTorch提供了一个包括softmax运算和交叉熵损失计算的函数。它的数值稳定性更好。 loss nn.CrossEntropyLoss()3.7.4 定义优化算法 我们使用学习率为0.1的小批量随机梯度下降作为优化算法。 optimizer torch.optim.SGD(net.parameters(), lr0.1)3.7.5 训练模型 接下来我们使用上一节中定义的训练函数来训练模型。 num_epochs 5 d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, batch_size, None, None, optimizer)输出 epoch 1, loss 0.0031, train acc 0.745, test acc 0.790 epoch 2, loss 0.0022, train acc 0.812, test acc 0.807 epoch 3, loss 0.0021, train acc 0.825, test acc 0.806 epoch 4, loss 0.0020, train acc 0.832, test acc 0.810 epoch 5, loss 0.0019, train acc 0.838, test acc 0.823小结 PyTorch提供的函数往往具有更好的数值稳定性。可以使用PyTorch更简洁地实现softmax回归。 注本节除了代码之外与原书基本相同原书传送门
http://www.zqtcl.cn/news/790804/

相关文章:

  • 深圳网站设计师培训学校大气全屏通用企业网站整站源码
  • 献县网站建设价格动漫网站设计方案
  • 怎样制作网站电话怎么做网络推广优化
  • 自己有服务器如何建设微网站网站建设的开发方式和费用
  • 网站如何接入支付宝可以看网站的浏览器
  • 档案网站建设的原则网页设计html代码可以查重吗
  • 万宁网站建设公司新乡市延津县建设局网站
  • 校园网站建设的意义2016wordpress淘宝客程序
  • 翻书效果的网站餐厅网站设计
  • 多少钱算网站中山 网站定制
  • 镇江网站制作价格如何计算本地生活服务平台app
  • 洞泾网站建设怎么做推广赚佣金
  • 三拼域名做网站大连自助建站软件
  • 怎么做hs网站最专业的网站开发公司哪家最专业
  • 南京做网站的公司排名科技:开局研发六代战机许禾
  • 网站怎么做搜索引擎淘宝网站怎么做特价
  • 仿制网站建设oa办公系统官网
  • 深圳网站托管企业建站源码系统
  • 个人空间网站建设报告建站是什么东西
  • 好看的模板网站建设西安网站模板建站
  • 建设网站二级子页打不开广告设计平面设计培训班
  • 网站公司做网站要多少钱新乡
  • 天津谁做网站莱芜人才网招聘网
  • 学做网站的书籍自己做网站 最好的软件
  • 手机网站专题电商入门视频教程免费
  • aspx网站模板制作网页常用的软件有哪些
  • 网站主关键词湖南网站定制
  • 长沙seo网站排名优化公司进入秦皇岛最新规定
  • 企业网站优化平台宝山北京网站建设
  • 给人做代工的网站加盟代理网