当前位置: 首页 > news >正文

电子商务网站开发目的和意义网站建设湖南岚鸿建设

电子商务网站开发目的和意义,网站建设湖南岚鸿建设,开发项目管理系统,seo海外推广注#xff1a;本文为《动手学深度学习》开源内容#xff0c;仅为个人学习记录#xff0c;无抄袭搬运意图 3.7 softmax回归的简洁实现 我们在3.3节#xff08;线性回归的简洁实现#xff09;中已经了解了使用Pytorch实现模型的便利。下面#xff0c;让我们再次使用Pytorc… 注本文为《动手学深度学习》开源内容仅为个人学习记录无抄袭搬运意图 3.7 softmax回归的简洁实现 我们在3.3节线性回归的简洁实现中已经了解了使用Pytorch实现模型的便利。下面让我们再次使用Pytorch来实现一个softmax回归模型。首先导入所需的包或模块。 import torch from torch import nn from torch.nn import init import numpy as np import sys sys.path.append(..) import d2lzh_pytorch as d2l3.7.1 获取和读取数据 我们仍然使用Fashion-MNIST数据集和上一节中设置的批量大小。 batch_size 256 train_iter, test_iter d2l.load_data_fashion_mnist(batch_size)3.7.2 定义和初始化模型 在3.4节softmax回归中提到softmax回归的输出层是一个全连接层所以我们用一个线性模块就可以了。因为前面我们数据返回的每个batch样本x的形状为(batch_size, 1, 28, 28), 所以我们要先用view()将x的形状转换成(batch_size, 784)才送入全连接层。 num_inputs 784 num_outputs 10class LinearNet(nn.Module):def __init__(self, num_inputs, num_outputs):super(LinearNet, self).__init__()self.linear nn.Linear(num_inputs, num_outputs)def forward(self, x): # x shape: (batch, 1, 28, 28)y self.linear(x.view(x.shape[0], -1))return ynet LinearNet(num_inputs, num_outputs)我们将对x的形状转换的这个功能自定义一个FlattenLayer并记录在d2lzh_pytorch中方便后面使用。 # 本函数已保存在d2lzh_pytorch包中方便以后使用 class FlattenLayer(nn.Module):def __init__(self):super(FlattenLayer, self).__init__()def forward(self, x): # x shape: (batch, *, *, ...)return x.view(x.shape[0], -1)这样我们就可以更方便地定义我们的模型 from collections import OrderedDictnet nn.Sequential(# FlattenLayer(),# nn.Linear(num_inputs, num_outputs)OrderedDict([(flatten, FlattenLayer()),(linear, nn.Linear(num_inputs, num_outputs))]) )然后我们使用均值为0、标准差为0.01的正态分布随机初始化模型的权重参数。 init.normal_(net.linear.weight, mean0, std0.01) init.constant_(net.linear.bias, val0) 3.7.3 softmax和交叉熵损失函数 如果做了上一节的练习那么你可能意识到了分开定义softmax运算和交叉熵损失函数可能会造成数值不稳定。因此PyTorch提供了一个包括softmax运算和交叉熵损失计算的函数。它的数值稳定性更好。 loss nn.CrossEntropyLoss()3.7.4 定义优化算法 我们使用学习率为0.1的小批量随机梯度下降作为优化算法。 optimizer torch.optim.SGD(net.parameters(), lr0.1)3.7.5 训练模型 接下来我们使用上一节中定义的训练函数来训练模型。 num_epochs 5 d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, batch_size, None, None, optimizer)输出 epoch 1, loss 0.0031, train acc 0.745, test acc 0.790 epoch 2, loss 0.0022, train acc 0.812, test acc 0.807 epoch 3, loss 0.0021, train acc 0.825, test acc 0.806 epoch 4, loss 0.0020, train acc 0.832, test acc 0.810 epoch 5, loss 0.0019, train acc 0.838, test acc 0.823小结 PyTorch提供的函数往往具有更好的数值稳定性。可以使用PyTorch更简洁地实现softmax回归。 注本节除了代码之外与原书基本相同原书传送门
http://www.zqtcl.cn/news/122218/

相关文章:

  • 网站改版提交给百度个人定做衣服店
  • 网站接广告网站用途说明
  • 中兴豫建设管理有限公司网站中小企业网站建设济南兴田德润o厉害吗
  • 枣庄有做网站的吗网站 关键词 多少个
  • 广州10大网站服务品牌做网站买了域名之后
  • 北京网站备案电商网站建设考试
  • 微信官网网站虚拟主机网站被挂马
  • 怎么看网站是不是h5做的建设网站的目的和功能
  • 购销网站建设视频百度云中国数据网
  • 网站运营队伍与渠道建设成都开发网站建设
  • 手机网站图片宽度做儿童交互网站
  • 商家入驻型网站建设中小型企业查询网址
  • 园区网站建设服务公司wordpress添加好友
  • 网站建设有哪些推广渠道洛阳小程序开发公司
  • 网站的icp备案平面设计网格
  • 东莞网站建设免费服务器营销是什么意思
  • 内容管理网站建设方案阿里云wordpress搭建
  • 静安微信手机网站制作中企动力做网站费用
  • 北京网站建设交易凡客诚品特色
  • 免费建设旅游网站学校网站开发方案
  • 专门做网站的科技公司青岛做网站哪家专业
  • 佛山网站优化效果珠海婚恋网站建设市场分析
  • 贵阳建设公司网站个人网站必须备案
  • 万网网站备案域客式单页网站能申请域名吗
  • 网站建设公司哪家好 都来磐石网络建设银行网络平台
  • 微营销网站建设免费建设网站教程
  • c .net怎么做网站如何进行账号推广
  • 网站建设丨金手指谷哥12怎么看网站做的外链
  • 一个空间建多个网站青海培训网站建设公司
  • 网站国际联网备案大型外贸网站建设