当前位置: 首页 > news >正文

网站制作合肥网络推广品牌营销公司

网站制作合肥,网络推广品牌营销公司,seoul是什么意思,wordpress 小工具无法拖拽文章目录 5、卷积神经网络5.10、⭐批量归一化5.10.1、理论部分5.10.2、代码部分 5.11、⭐残差网络#xff08;ResNet#xff09;5.11.1、理论部分5.11.2、代码部分 话题闲谈 5、卷积神经网络 5.10、⭐批量归一化 5.10.1、理论部分 批量归一化可以解决深层网络中梯度消失和… 文章目录 5、卷积神经网络5.10、⭐批量归一化5.10.1、理论部分5.10.2、代码部分 5.11、⭐残差网络ResNet5.11.1、理论部分5.11.2、代码部分 话题闲谈 5、卷积神经网络 5.10、⭐批量归一化 5.10.1、理论部分 批量归一化可以解决深层网络中梯度消失和收敛慢的问题通过固定每个批次的均值和方差来加速收敛一般不改变模型精度。批量规范化已经被证明是一种不可或缺的方法它适用于几乎所有图像分类器。 批量规划是一个线性变换把参数的均值方差给拉的比较好。让你变化不那么剧烈。 批量规范化应用于单个可选层也可以应用到所有层其原理如下在每次训练迭代中我们首先规范化输入即通过减去其均值并除以其标准差其中两者均基于当前小批量处理。 接下来我们应用比例系数和比例偏移。 正是由于这个基于批量统计的标准化才有了批量规范化的名称。 B N ( x ) γ ⊚ x − μ ^ B σ ^ B β BN(x) γ⊚\frac{x-\hat{μ}_B}{\hat{σ}_B}β BN(x)γ⊚σ^B​x−μ^​B​​β 其中x∈Bx是一个小批量B的输入比例系数γ比例偏移β。 μ ^ β B \hat{μ}β_B μ^​βB​小批量B的均值 σ ^ B \hat{σ}_B σ^B​小批量B的标准差。 μ ^ B 1 ∣ B ∣ ∑ x ∈ B x \hat{μ}_B \frac{1}{|B|}\sum_{x∈B}{x} μ^​B​∣B∣1​x∈B∑​x σ ^ B 2 1 ∣ B ∣ ∑ x ∈ B ( x − μ ^ B ) 2 c {\hat{σ}_B}^2 \frac{1}{|B|}\sum_{x∈B}{(x-\hat{μ}_B)^2 c} σ^B​2∣B∣1​x∈B∑​(x−μ^​B​)2c 差估计值中添加一个小的常量c0以确保永远不会尝试除以零【BN(x)分母】。通过使用平均值和方差的噪声noise估计来抵消缩放问题噪声这里是有益的。 可学习的参数比例系数γ比例偏移β 作用在全连接层和卷积层输出激活函数前 作用在全连接层和卷积层输入。 作用于全连接层的特征维 作用于卷积层的通道维 5.10.2、代码部分 直接使用深度学习框架中定义的BatchNorm定义Sequential块 import torch from torch import nn from d2l import torch as d2lnet nn.Sequential(# nn.BatchNorm2d(6) 二维卷积操作的批归一化层6通道nn.Conv2d(1, 6, kernel_size5), nn.BatchNorm2d(6), nn.Sigmoid(),nn.AvgPool2d(kernel_size2, stride2),nn.Conv2d(6, 16, kernel_size5), nn.BatchNorm2d(16), nn.Sigmoid(),nn.AvgPool2d(kernel_size2, stride2), nn.Flatten(),# # nn.BatchNorm1d(120) 一维卷积操作的批归一化层120通道nn.Linear(256, 120), nn.BatchNorm1d(120), nn.Sigmoid(),nn.Linear(120, 84), nn.BatchNorm1d(84), nn.Sigmoid(),nn.Linear(84, 10))lr, num_epochs, batch_size 1.0, 10, 256 train_iter, test_iter d2l.load_data_fashion_mnist(batch_size)d2l.train_ch6(net, train_iter, test_iter, num_epochs, lr, d2l.try_gpu())批量规范化应用于LeNet net nn.Sequential(# BatchNorm(6, num_dims4) num_dims 参数用来根据输入数据的维度选择适当的批归一化操作输入6通道输入4维这里会选择nn.BatchNorm2d进行归一化。这里和 nn.BatchNorm2d(6) 一样的。nn.Conv2d(1, 6, kernel_size5), BatchNorm(6, num_dims4), nn.Sigmoid(),nn.AvgPool2d(kernel_size2, stride2),nn.Conv2d(6, 16, kernel_size5), BatchNorm(16, num_dims4), nn.Sigmoid(),nn.AvgPool2d(kernel_size2, stride2), nn.Flatten(),nn.Linear(16*4*4, 120), BatchNorm(120, num_dims2), nn.Sigmoid(),nn.Linear(120, 84), BatchNorm(84, num_dims2), nn.Sigmoid(),nn.Linear(84, 10))5.11、⭐残差网络ResNet 5.11.1、理论部分 核心思想保证加更多的层效果较之前不会变差。 设计越来越深的网络网络表现不一定会更好。 实现原理-残差块residual blocks 每个附加层都应该更容易地包含原始函数作为其元素之一。 如下图 正常块中输出直接作为理想映射 f ( x ) f(x) f(x) 残差块中输出为 f ( x ) − x f(x)-x f(x)−x和 x x x两部分 x经过残差映射 f ( x ) − x f(x)-x f(x)−x输出 x作为原始数据恒等映射到输出 两者共同组成 f ( x ) f(x) f(x)。 5.11.2、代码部分 实现残差块 import torch from torch import nn from torch.nn import functional as F from d2l import torch as d2lclass Residual(nn.Module): #savedef __init__(self, input_channels, num_channels,use_1x1convFalse, strides1):super().__init__()self.conv1 nn.Conv2d(input_channels, num_channels,kernel_size3, padding1, stridestrides)self.conv2 nn.Conv2d(num_channels, num_channels,kernel_size3, padding1)if use_1x1conv:self.conv3 nn.Conv2d(input_channels, num_channels,kernel_size1, stridestrides)else:self.conv3 Noneself.bn1 nn.BatchNorm2d(num_channels)self.bn2 nn.BatchNorm2d(num_channels)def forward(self, X):Y F.relu(self.bn1(self.conv1(X)))Y self.bn2(self.conv2(Y))if self.conv3:X self.conv3(X)Y Xreturn F.relu(Y)生成两种类型的网络 验证输入输出情况一致 blk Residual(3,3) #X batch_size4,input_channel3,shape6*6 X torch.rand(4, 3, 6, 6) Y blk(X) Y.shapetorch.Size([4, 3, 6, 6])验证增加输出通道数同时减半输出的高和宽 blk Residual(3,6, use_1x1convTrue, strides2) blk(X).shapetorch.Size([4, 6, 3, 3])定义ResNet第一个Sequential块 b1 nn.Sequential(nn.Conv2d(1, 64, kernel_size7, stride2, padding3),nn.BatchNorm2d(64), nn.ReLU(),nn.MaxPool2d(kernel_size3, stride2, padding1))定义残差块 def resnet_block(input_channels, num_channels, num_residuals,first_blockFalse):blk []for i in range(num_residuals):if i 0 and not first_block:blk.append(Residual(input_channels, num_channels,use_1x1convTrue, strides2))else:blk.append(Residual(num_channels, num_channels))return blk定义其他含残差块Sequential块 每个模块使用2个残差块 b2 nn.Sequential(*resnet_block(64, 64, 2, first_blockTrue)) b3 nn.Sequential(*resnet_block(64, 128, 2)) b4 nn.Sequential(*resnet_block(128, 256, 2)) b5 nn.Sequential(*resnet_block(256, 512, 2))在ResNet中加入全局平均汇聚层以及全连接层输出 每个模块【b2-b5】有4个卷积层不包括恒等映射的1×1卷积层。 加上第一个7×7卷积层和最后一个全连接层共有18层。 因此这种模型通常被称为ResNet-18。 net nn.Sequential(b1, b2, b3, b4, b5,nn.AdaptiveAvgPool2d((1,1)),nn.Flatten(), nn.Linear(512, 10))验证每模块输出形状变化 X torch.rand(size(1, 1, 224, 224)) for layer in net:X layer(X)print(layer.__class__.__name__,output shape:\t, X.shape)Sequential output shape: torch.Size([1, 64, 56, 56]) Sequential output shape: torch.Size([1, 64, 56, 56]) Sequential output shape: torch.Size([1, 128, 28, 28]) Sequential output shape: torch.Size([1, 256, 14, 14]) Sequential output shape: torch.Size([1, 512, 7, 7]) AdaptiveAvgPool2d output shape: torch.Size([1, 512, 1, 1]) Flatten output shape: torch.Size([1, 512]) Linear output shape: torch.Size([1, 10])训练模型 lr, num_epochs, batch_size 0.05, 10, 256 train_iter, test_iter d2l.load_data_fashion_mnist(batch_size, resize96) d2l.train_ch6(net, train_iter, test_iter, num_epochs, lr, d2l.try_gpu())话题闲谈 怎么维护自己的电脑 对于深度学习工作者而言电脑是最为重要的工作工具之一因此维护电脑的健康状态对工作、学习和生活都至关重要。 首先定期进行系统和软件的更新保持操作系统和应用程序在最新版本以获得更好的性能和安全性。其次保持电脑的清洁定期清理灰尘和污垢确保散热良好避免过热对硬件的损害。此外备份重要数据是必不可少的以防止意外数据丢失。 在学习方面合理规划学习时间避免长时间的连续使用电脑适时休息保护眼睛和身体健康。 生活娱乐方面多参与户外活动保持身体锻炼减轻长时间坐在电脑前带来的压力。总之深度学习工作者应关注电脑的硬件和软件健康平衡工作、学习和生活保持身心健康。
http://www.zqtcl.cn/news/356630/

相关文章:

  • 建设公共资源交易中心网站成都APP,微网站开发
  • dede网站地图修改厦门百度seo
  • 可以做行程的网站网站详情怎么做的
  • 网站建设心得8000字营销型网站建设的注意事项
  • 织梦购物网站整站源码哈尔滨网站建设技术托管
  • 做推广的网站微信号企业免费网站制作
  • 做旅游网站的引言上海公司网站建设哪家好
  • 找项目去哪个网站网站建设一条龙全包
  • 网站 数据库 模板网站系统建设合作合同范本
  • 网站空间租赁费用企业网站建设需要多少钱知乎
  • 免费建网站哪个模板多浅谈学校网站建设
  • 精致的个人网站手机网站建设基本流程图
  • 优秀网站网页设计图片主机屋做网站视频
  • 安徽网站建设电话编程一个最简单游戏代码
  • 西宁圆井模板我自己做的网站在线平面设计图
  • 浦口区网站建设技术指导做软件需要网站吗
  • 丹东有做公司网站的吗搜索引擎 wordpress
  • 做网站代理国内课程网站建设现状
  • 中国建设银行手机网站下载从零开始建设企业网站
  • 网站友情链接怎么弄seo平台
  • 建设网站一定要备案吗嘉兴做网站设计
  • 如何制作营销网站模板做外贸需要关注的网站有什么好处
  • 东莞勒流网站制作wordpress 自定义字段 查询
  • 温州网站开发风格做影视剧组演员垂直平台网站
  • c 网站开发培训怎么做网站的站点地图
  • html 网站模板简单网站制作北京海淀
  • 大庆做网站找谁珠海网站搭建
  • 网站建设方面的外文宿迁房产网找房
  • 运营 网站遵义网站开发制作公司
  • 动力论坛源码网站后台地址是什么网站上微信支付功能