当前位置: 首页 > news >正文

上海做衣服版的网站广告设计公司怎么样

上海做衣服版的网站,广告设计公司怎么样,深圳企业网站建设制作设计公司,企业信息公示系统官网一.前提知识 多层感知机#xff1a;由一个输入层#xff0c;一个或多个隐藏层和一个输出层组成。#xff08;至少有一个隐藏层#xff0c;即至少3层#xff09; 全连接层#xff1a;是MLP的一种特殊情况#xff0c;每个节点都与前一层的所有节点连接#xff0c;全连接…一.前提知识 多层感知机由一个输入层一个或多个隐藏层和一个输出层组成。至少有一个隐藏层即至少3层 全连接层是MLP的一种特殊情况每个节点都与前一层的所有节点连接全连接层可以解决线性可分问题无法学习到非线性特征。只有输入和输出层 二.NiN模型特点 NiN与过去模型的区别AlexNet和VGG对LeNet的改进在于如何扩大和加深这两个模块。他们都使用了全连接层使用全连接层就可能完全放弃表征的空间结构。 NiN放弃了使用全连接层而是使用两个1x1卷积层(将空间维度中的每个像素视为单个样本将通道维度视为不同特征。)相当于在每个像素的通道上分别使用多层感知机。 优点:NiN去除了全连接层可以减少过拟合同时显著减少NiN的参数数量 三.模型架构 四.代码 import torch from torch import nn from d2l import torch as d2l import timedef nin_block(in_channels,out_channels,kernel_size,strides,padding):return nn.Sequential(# 卷积层nn.Conv2d(in_channels,out_channels,kernel_size,strides,padding),nn.ReLU(),# 两个带有ReLU激活函数的 1x1卷积层nn.Conv2d(out_channels,out_channels,kernel_size1),nn.ReLU(),nn.Conv2d(out_channels,out_channels,kernel_size1),nn.ReLU())net nn.Sequential(nin_block(1,96,kernel_size11,strides4,padding0),nn.MaxPool2d(3,stride2),nin_block(96,256,kernel_size5,strides1,padding2),nn.MaxPool2d(3,stride2),nin_block(256,384,kernel_size3,strides1,padding1),nn.MaxPool2d(3,stride2),nn.Dropout(0.5),# 标签类别是10nin_block(384,10,kernel_size3,strides1,padding1),# 二维自适应平均池化不用指定池化窗口大小nn.AdaptiveAvgPool2d((1,1)),# 将(样本通道w,h) 批量1011四维的输出转成2维的输出其形状为(批量大小,10)nn.Flatten() )X torch.rand(size(1,1,224,224)) for layer in net:X layer(X)print(layer.__class__.__name__,output shape:\t,X.shape)Sequential output shape: torch.Size([1, 96, 54, 54]) MaxPool2d output shape: torch.Size([1, 96, 26, 26]) Sequential output shape: torch.Size([1, 256, 26, 26]) MaxPool2d output shape: torch.Size([1, 256, 12, 12]) Sequential output shape: torch.Size([1, 384, 12, 12]) MaxPool2d output shape: torch.Size([1, 384, 5, 5]) Dropout output shape: torch.Size([1, 384, 5, 5]) Sequential output shape: torch.Size([1, 10, 5, 5]) AdaptiveAvgPool2d output shape: torch.Size([1, 10, 1, 1]) Flatten output shape: torch.Size([1, 10])六.不同参数训练结果 学习率是0.1的情况 # 训练模型 lr,num_epochs,batch_size 0.1,10,128 train_iter,test_iter d2l.load_data_fashion_mnist(batch_size,resize224) d2l.train_ch6(net,train_iter,test_iter,num_epochs,lr,d2l.try_gpu())学习率是0.05的情况提升了6个点 开始计时 start_time time.time() # 训练模型 lr,num_epochs,batch_size 0.05,10,128 train_iter,test_iter d2l.load_data_fashion_mnist(batch_size,resize224) d2l.train_ch6(net,train_iter,test_iter,num_epochs,lr,d2l.try_gpu()) 计时结束 end_time time.time() run_time end_time - start_time # 将输出的秒数保留两位小数 print(f{round(run_time,2)}s)学习率为0.01批次等于30的情况(反而下降了) 思考 为什么NiN块中有两个1x1卷积层 从NiN替换掉全连接层使用多层感知机角度来说 因为1个1x1卷基层相当于全连接层两个1x1卷积层使输入和输出层中间有了隐藏层才相当于多层感知机。
http://www.zqtcl.cn/news/637071/

相关文章:

  • 莆田cms建站模板现在可以做网站么
  • windows 建网站湖北省最新消息今天
  • 手机商场网站制作在线看网站源码
  • 云南建设厅网站房地产开发资质做哪一类网站能赚钱
  • 佛山优化网站关键词创作者服务平台
  • python做网站多少钱超级商城系统
  • 网站开发pc端和手机端长沙专业个人做网站哪家好
  • 永州网站建设收费标准天长网站开发
  • 做网站分辨率多少钱装修公司10强排名
  • 营销网站建设818gx在南宁做家教兼职的网站
  • 做杂志模板下载网站网站开发产品经理招聘
  • 深圳网站创建公司小程序代理怎么样
  • 所以免费爱做网站营销网站优化推广
  • 莆田网站制作设计东莞营销专业网站建设
  • joomla建站教程北京做网站ezhixi
  • 自己可以做拼单网站吗建设企业网站有哪些
  • 张掖北京网站建设新闻事件
  • 济南网站建设(力选聚搜网络)wordpress文章中写代码
  • 网站后台忘记密码买购网十大品牌网
  • 360免费建站网页链接石家庄建设局网站怎么打不开
  • 东莞网站建做俄罗斯外贸的网站
  • 基于vue.js旅游网站开发网络营销的主要形式有建设网站
  • 医院网站建设要素国外电商网站
  • 甘肃两学一做网站可以制作h5的网站
  • 微信公众号手机网站开发wordpress 集赞系统
  • 怎么做会员积分网站免费ppt模板下载有哪些
  • 六安网站开发如何用微信小程序做网站
  • 华为云自助建站好不好seo技巧分享
  • 做淘宝客的网站wordpress+附件丢失
  • 苏州市城乡建设局网站首页做动漫网站的素材