当前位置: 首页 > news >正文

湖北省城乡建设厅网站首页wordpress5.0.2主题更换

湖北省城乡建设厅网站首页,wordpress5.0.2主题更换,健康成都官微最新消息,重庆高端网站建设公司ResNet 论文摘要1. 引入2. 相关工作残差表示快捷连接 3. 深度残差学习3.1. 残差学习3.2. 快捷恒等映射3.3. 网络体系结构普通网络 plain network残差网络 residual network 3.4. 实施 4. 实验4.1. ImageNet分类普通的网络 plain network残差网络 residual network恒等vs.快捷连… ResNet 论文摘要1. 引入2. 相关工作残差表示快捷连接 3. 深度残差学习3.1. 残差学习3.2. 快捷恒等映射3.3. 网络体系结构普通网络 plain network残差网络 residual network 3.4. 实施 4. 实验4.1. ImageNet分类普通的网络 plain network残差网络 residual network恒等vs.快捷连接更深的瓶颈架构与 SOTA 比较 4.2. CIFAR-10和分析层响应分析探索超过1000层 何凯明大佬现场讲解 ResNet大佬的 PPT ResNet 论文 论文地址Deep Residual Learning for Image Recognition 摘要 更深的神经网络更难训练。我们提出了一个 残差学习框架以 简化 比以前使用的网络深度大得多的网络的训练。我们明确地将 ResNet 的层 重新表述为 学习残差函数也就是 与层输入有关的函数而 不是学习无关的函数。 残差函数是与层输入有关的函数是因为 它是用来表示输入和输出之间的差异的。也就是说残差函数是用来 学习输入到输出的映射的变化量而不是直接学习输入到输出的映射。   ResNet 的 每个残差块 都试图 学习输入和输出之间的差异而 不是直接学习输入到输出的映射。这样做的好处是可以让网络更容易优化也可以 增加网络的深度 而 不会导致退化 问题。 我们提供了 全面的实验证据表明这些残差网络更 容易优化并且可以从相当大的深度中获得 精度。在 ImageNet 数据集上我们评估了深度高达152层的残差网络比 VGG 网络深8倍但仍然具有较低的复杂性。这些残差网络的集合在 ImageNet 测试集上的误差达到3.57%。该结果在 ILSVRC 2015分类任务中获得第一名。我们还介绍了100层和1000层的 CIFAR-10分析。 表征的深度对于许多视觉识别任务至关重要。仅由于我们的极深表示我们在 COCO 对象检测数据集上获得了28%的相对改进。深度残差网络是我们参加 ILSVRC COCO 2015竞赛的基础我们还在 ImageNet 检测、ImageNet 定位、COCO 检测和 COCO 分割的任务中获得了第一名。 1. 引入 深度卷积神经网络[22,21]在图像分类方面取得了一系列突破[21,50,40]。深度网络 以端到端的多层方式自然地集成低/中/高级特征[50]和分类器并且 特征的“级别”可以通过堆叠层的数量(深度)来丰富。 这句话的意思是深度网络可以用多个层次的神经元来处理数据从而提取不同层次的特征。 特征是数据的一些有用的属性比如图像的边缘、形状、颜色等。 低级特征是比较简单的特征比如像素值中级特征是比较复杂的特征比如线条、角度、纹理等高级特征是比较抽象的特征比如物体、场景、情感等。 深度网络可以通过增加层数来提取更高级的特征从而更好地完成分类任务。分类器是一种算法它可以根据特征来判断数据属于哪个类别比如猫、狗、人等。 最近的证据[41,44]表明网络深度是至关重要的在具有挑战性的 ImageNet 数据集[36]上的领先结果[41,44,13,16]都利用了“非常深”[41]模型深度为16[41]到30[16]。许多其他重要的视觉识别任务[8,12,7,32,27]也极大地受益于非常深的模型。 在深度的重要性的驱使下一个问题出现了学习更好的网络就像堆叠更多的层一样简单吗 回答这个问题的一个障碍是臭名昭著的 梯度消失/爆炸问题[1,9]它从一开始就 阻碍了收敛。然而这个问题已经通过规范化初始化[23,9,37,13]和中间规范化层[16]得到了很大程度的解决这使得具有数十层的网络能够开始收敛随机梯度下降(SGD)与反向传播[22]。 梯度消失 是指在深度神经网络中由于 反向传播算法 的限制导致 网络的梯度在传递过程中逐渐变小最终趋近于零从而使得网络无法更新参数导致训练失败 的现象。梯度消失的原因可能有以下几种 网络层数过多导致链式法则中的连乘效应激活函数的导数小于1导致梯度衰减权重初始化不合适导致梯度变化不稳定 当更深的网络能够开始收敛时一个退化问题就暴露出来了随着网络深度的增加精度趋于饱和(这可能不足为奇)然后迅速退化。 出乎意料的是这种退化并 不是由过拟合引起 的在 适当深度的模型上增加更多的层会导致更高的训练误差这一点在[11,42]中有提到我们的实验也充分验证了这一点。 过拟合是指模型在 训练集上表现很好但 在测试集或新数据上表现很差 的现象。 比如在训练集上 e r r o r error error 在下降但是在测试集上 e r r o r error error 却上升了。而下图中在测试集上 e r r o r error error 是随着训练集 e r r o r error error 的下降而下降所以这不是过拟合。 下图是一个典型的例子。 CIFAR-10 在20层和56层“普通”网络上的训练误差(左)和测试误差(右)。网络越深训练误差越大测试误差也越大。 ImageNet 上的类似现象如下图所示 ImageNet 的训练。细曲线表示训练误差粗曲线表示中间产物的验证误差。左图18层和34层的普通网络简单地堆叠。右图18层和34层的 ResNets。在该图中与普通网络相比残差网络没有额外的参数。 (训练精度的)退化表明并非所有系统都同样容易优化。让我们考虑一个较浅的体系结构和它的更深的对应物它在上面添加了更多的层。通过 构造更深的模型存在一个解决方案添加的层是 i d e n t i t y m a p p i n g identity\ mapping identity mapping恒等映射其他的层则从之前学习到的浅层模型复制得到。 这句话的意思是当网络层数增加时为了避免退化问题作者采用了一种方法就是将增加的层作为恒等映射对任意 x x x f ( x ) x f(x) x f(x)x 都成立也就是不改变输入的输出而其他的层则复制自之前学习到的浅层模型。这样做的目的是为了让网络更容易优化也可以作为一个 基线 来 比较残差连接的效果。 这种构造解的存在表明较深的模型不会比较浅的模型产生更高的训练误差。但实验表明我们现有的解算器 无法找到比构建的解决方案更好的解决方案(或无法在可行的时间内做到这一点)。 我的理解是假如我有一个5层的网络我想构建更深的9层网络那么我拿来5层网络作为前5层后4层网络只需要完成恒等映射的任务 按理来说就可以保证更深的9层网络不会比5层的网络效果差但 实验效果 却是9层网络效果更差这说明后4层网络不太能完成恒等映射。 所以作者团队后面就 不用网络来拟合恒等映射了而是直接“曲线救国”加了一个跨层连接 恒等映射。 在本文中我们通过 引入深度残差学习框架 来解决 退化问题。我们不是希望每几层堆叠的层直接拟合一个期望的底层映射而是明确地 让这些层拟合一个残差映射。形式上假设期望的底层映射为 H ( x ) \mathcal H(x) H(x)我们让堆叠的非线性层拟合另一个映射 F ( x ) : H ( x ) − x \mathcal F(x) : \mathcal H(x) - x F(x):H(x)−x。原始映射被重构为 F ( x ) x \mathcal F(x)x F(x)x。我们假 设优化残差映射比优化原始的、无参照的映射更容易。在极端情况下如果一个恒等映射是最优的将残差推至零要比用一堆非线性层拟合一个恒等映射容易得多。 F ( x ) x \mathcal F(x)x F(x)x 的表达式可以 通过具有“快捷连接”的前馈神经网络来实现(图2)。 残差学习一个构建模块。 快捷连接 [2,34,49]是那些 跳过一个或多个层的连接。在我们的例子中快捷连接只是执行恒等映射它们的输出被添加到堆叠层的输出中(图2)。恒等快捷连接既不增加额外的参数也不增加计算复杂度。 整个网络仍然可以通过反向传播的 SGD 进行端到端训练并且可以使用通用库(例如 Caffe[19])轻松实现而无需修改求解器。 我们在 ImageNet 上进行了全面的实验[36]以显示退化问题并评估我们的方法。我们发现 我们的极深残差网络很容易优化但对应的 “普通”网络 (简单地堆叠层)在深度增加时表现出更高的训练误差我们的深度残差网络可以很容易地从深度大大增加中获得精度增益产生的结果比以前的网络好得多。 类似的现象也出现在 CIFAR-10集上[20]这表明我们的方法的优化困难和效果并不仅仅是某个特定数据集的特性。 也就是说作者认为他们的方法是具有普遍性和有效性的不会受到数据集的影响。 我们在超过100层的数据集上展示了成功训练的模型并探索了超过1000层的模型。在 ImageNet 分类数据集[36]上我们使用极深残差网获得了很好的结果。我们的152层残差网络是迄今为止在 ImageNet 上呈现的最深的网络但其复杂度仍低于 VGG 网络[41]。我们的集合在 ImageNet 测试集上的前5名错误率为3.57%并在 ILSVRC 2015分类大赛中获得第一名。 极深表征在其他识别任务上也有出色的泛化性能并使我们在 ILSVRC COCO 2015竞赛中在 ImageNet 检测、ImageNet 定位、COCO 检测和 COCO 分割方面进一步获得第一名。这有力地证明了残差学习原理是通用的我们期望它能适用于其他视觉和非视觉问题。 2. 相关工作 残差表示 残差表示是一种在图像识别中常用的表示方法它是 通过对一个字典的残差向量进行编码来得到的VLAD 是一种残差表示的方法而 Fisher Vector 可以看作是 VLAD 的概率版本。这两种方法都是用于图像检索和分类的强大的浅层表示方法。 字典和残差向量是在图像识别中常用的表示方法的一部分它们可以用来 描述图像的特征。 字典 是一个由一些基本向量组成的集合它们可以用来近似表示 图像的局部区域。残差向量 是指图像的局部区域与字典中最近的基本向量之间的差异它们可以用来 捕捉图像的细节和变化。 为什么想到使用残差 对于 VLAD 和 Fisher Vector 来说对残差向量编码比对原始向量编码效率更高用 Multigrid 解偏微分方程Partial Differential EquationsPDE时使用残差向量对于优化更好收敛速度更快。 快捷连接 与我们的工作同时进行的是“高速公路网”[42,43]与门控功能[15]提供了快捷连接。这些门是数据依赖的有参数而我们的恒等快捷方式是无参数的。 当一条门控捷径“关闭”(接近零)时公路网中的层表示非残差函数。相反我们的公式总是学习残差函数我们的 恒等快捷键永远不会关闭所有的信息总是通过还有额外的残差函数需要学习。 此外高速公路网络在深度极大增加(例如超过100层)的情况下并没有显示出准确性的提高。 为什么想到使用跨层连接快捷连接 在多层感知机multi-layer perceptronsMLP中加一层从输入到输出的线性层GoogLeNet 中使用辅助分类器防止梯度爆炸 / 消失在此之前已有研究者使用跨层连接对响应和梯度中心化center处理inception 结构本质也是跨层连接high-way 网络也使用到了跨层连接 3. 深度残差学习 3.1. 残差学习 让我们把 H ( x ) \mathcal H(x) H(x) 看作是 由几个堆叠层(不一定是整个网络)拟合的底层映射其中 x x x 表示 这些层的第一层的输入。如果 假设多个非线性层可以渐近逼近复杂函数则等价于假设它们可以渐近逼近残差函数即 H ( x ) − x \mathcal H(x)−x H(x)−x (假设输入和输出具有相同的维数)。因此我们不是期望堆叠层近似于 H ( x ) \mathcal H(x) H(x)而是明确地让这些层近似于残差函数 F ( x ) : H ( x ) − x \mathcal F(x): \mathcal H(x) - x F(x):H(x)−x。因此原始函数变为 F ( x ) x \mathcal F(x)x F(x)x。尽管这两种形式都应该能够渐进地逼近所需的函数(如假设的那样)但学习的难易程度可能有所不同。 这种重新表述的动机是 关于退化问题的反直觉现象(图1左)。正如我们在介绍中所讨论的如果添加的层可以构造为恒等映射那么较深的模型的训练误差应该不大于较浅的模型。退化问题表明求解器在逼近多非线性层的恒等映射时可能存在困难。 通过残差学习的重新表述如果恒等映射是最优的求解器可以简单地将多个非线性层的权值向零驱动从而逼近恒等映射。 非线性层 是指神经网络中使用了非线性变换的层比如激活函数、卷积或池化。 激活函数是一种函数它可以给神经元的输出增加非线性比如sigmoid、tanh 或 relu 函数。非线性层可以让神经网络拟合更复杂的函数提高网络的表达能力和优化效率。 在实际情况下恒等映射不太可能是最优的但我们的重新表述可能有助于预先解决问题。如果最优函数更接近于恒等映射而不是零映射那么求解器应该更容易找到与恒等映射相关的扰动而不是将该函数作为一个新函数来学习。我们通过实验(图7)表明学习到的残差函数通常具有较小的响应这表明恒等映射提供了合理的预处理。 3.2. 快捷恒等映射 我们对每几个堆叠层采用残差学习。构建块如图2所示。形式上在本文中我们认为构建块定义为 y F ( x , W i ) x . (1) \mathbf y \mathcal F(\mathbf x, {W_i}) \mathbf x. \tag1 yF(x,Wi​)x.(1) 这里的 x x x 和 y y y 是被考虑的层的输入和输出向量。函数 F ( x , W i ) \mathcal F(\mathbf x, {W_i}) F(x,Wi​) 表示待学习的残差映射。对于图2中有两层的例子 F W 2 σ ( W 1 x ) \mathcal F W_2σ(W_1x) FW2​σ(W1​x)其中 σ σ σ 表示 ReLU[29]为了简化符号省略了偏差。操作 F x \mathcal F x Fx 是通过一个快捷连接和元素加法来执行的。我们采用加后的第二个非线性(即 σ ( y ) σ(y) σ(y)见图2)。 方程(1)中的快捷连接既不引入额外的参数也不增加计算复杂度。这不仅在实践中很有吸引力而且在我们比较普通网络和残差网络时也很重要。我们可以比较同时具有相同数量的参数、深度、宽度和计算成本(除了可以忽略不计的元素加法)的普通/残余网络。 x x x 和 F \mathcal F F 的维数在 Eqn(1)中必须相等。 如果不是这种情况(例如当 改变输入/输出通道 时)我们可以 通过快捷连接执行线性投影 w w w 来匹配维度 y F ( x , W i ) W s x . (2) \mathbf y \mathcal F(\mathbf x, {W_i}) W_s \mathbf x. \tag2 yF(x,Wi​)Ws​x.(2) 我们也可以使用 Eqn(1)中的方阵 w w w。但我们将通过实验证明恒等映射足以解决退化问题并且节省资源因此 W s W_s Ws​ 仅在匹配维度时使用。 匹配维度是指让两个向量或矩阵的维度相同以便进行加法或乘法等运算。例如如果 x x x 是一个 n × m n×m n×m 的矩阵而 F ( x ; W i ) \mathcal F(x; {W_i}) F(x;Wi​) 是一个 n × k n×k n×k 的矩阵那么要使 y F ( x ; W i ) x y \mathcal F(x; {W_i}) x yF(x;Wi​)x 成立就需要用一个 m × k m×k m×k 的矩阵 W s W_s Ws​ 来乘以 x x x使得 W s x W_s x Ws​x 是一个 n × k n×k n×k 的矩阵然后再与 F ( x ; W i ) \mathcal F(x; {W_i}) F(x;Wi​) 相加。 残差函数 F \mathcal F F 的形式是灵活的。本文中的实验涉及到一个函数 F \mathcal F F它有两层或三层(图5)而更多的层是可能的。但如果 F \mathcal F F 只有单层则 Eqn.(1)类似于线性层 y W 1 x x \mathbf y W_1 \mathbf x \mathbf x yW1​xx我们没有观察到其优势。 我们还注意到尽管为了简单起见上面的符号是关于全连接层的但它们适用于卷积层。函数 F ( x W i ) \mathcal F(\mathbf x {W_i}) F(xWi​) 可以表示多个卷积层。逐个通道地在两个特征映射上执行元素加法。 Identity Mapping by Shortcuts 是一种深度残差网络中的技术它可以使网络中的信号在前向和反向传播时直接从一个残差块传到另一个残差块不会产生信号中断或梯度消失的问题。它的基本思想是在每个残差块的输入和输出之间加上一个恒等映射identity mapping即 y F ( x , W i ) x . \mathbf y \mathcal F(\mathbf x, {W_i}) \mathbf x. yF(x,Wi​)x.其中 y \mathbf y y 是输出 x \mathbf x x 是输入 F \mathcal F F 是残差函数 W i W_i Wi​ 是权重。这样做的好处是可以增加网络的深度和性能而不影响网络的收敛速度和稳定性。 3.3. 网络体系结构 我们已经测试了各种普通/残差网并观察到一致的现象。为了提供讨论的实例我们如下描述 ImageNet 的两个模型。 plain network 指的就是 简单堆叠层的网络。 普通网络 plain network 我们的普通基线(图3中间)主要受到 VGG 网原理的启发[41] (图3左)。卷积层大多具有 3×3 滤波器并遵循两个简单的设计规则 (i) 对于 相同的输出特征图大小各层具有 相同数量的滤波器 (ii) 如果 特征图大小减半则 滤波器的数量增加一倍以保持每层的时间复杂度。 我们通过步长为2的卷积层直接执行下采样。网络以一个全局平均池化层和一个带有 softmax 的1000路全连接层结束。图3(中)加权层总数为34层。 值得注意的是我们的模型比 VGG 网络具有更少的过滤器和更低的复杂性[41] (图3左)。我们的34层基线有36亿 FLOPs(乘加)仅为 VGG-19(196亿FLOPs)的18%。 残差网络 residual network 在上述普通网络的基础上我们插入快捷连接(图3右)将网络转换为对应的 残差版本。当输入和输出维度相同时(图3中的实线快捷方式)可以直接使用标识快捷方式(Eqn.(1))。当维度增加时(图3中的虚线快捷方式)我们考虑两种选择 (A)快捷方式仍然执行标识映射增加维度时填充额外的零项。这个选项不引入额外的参数(B) Eqn.(2)中的投影快捷方式用于匹配维度(通过1×1卷积完成)。 对于这两个选项当快捷键跨越两个大小的特征映射时它们的步幅为2。 3.4. 实施 我们对 ImageNet 的实现遵循[21,41]中的实践。在[256,480]中随机采样图像的短边以进行缩放[41]。 从图像或其水平翻转中随机采样 224×224 裁剪并减去每像素平均值[21]。使用[21]中的标准颜色增强。 我们在每次卷积之后和激活之前采用批归一化(BN)[16]。 我们像[13]中那样初始化权重并从头开始训练所有的 plain/residual 网络。我们使用 SGD 的小批量大小为256。 学习率从0.1开始当误差趋于平稳时除以10模型的训练次数可达 60 × 104 次。我们使用0.0001的权重衰减和0.9的动量。遵循文献[16]的做法我们没有使用 dropout[14]。 在测试中我们采用标准的10种作物测试进行比较研究[21]。为了获得最佳结果我们采用了[41,13]中的全卷积形式并在多个尺度上平均得分(图像被调整大小使较短的一面在{224,256,384,480,640}中)。 在这一段中他们基本上详细介绍了所有训练过程和他们使用的所有技巧。这解释得很好这太酷了这个段落有 20 行顺便说了使用的 50个其他论文的技巧。你需要做所有的技巧才能真正达到最高准确度但事后看来这不是技巧帮助他们实际上是他们的想法。 4. 实验 4.1. ImageNet分类 我们在包含1000个类的 ImageNet 2012分类数据集[36]上评估我们的方法。模型在128万张训练图像上进行训练并在5万张验证图像上进行评估。我们还获得了由测试服务器报告的100k测试映像的最终结果。 我们评估前1和前5的错误率。 普通的网络 plain network plain network 指的就是 简单堆叠层的网络。 我们首先评估了18层和34层的普通网。34层平面网如图3(中)所示。18层的平面网也是类似的形式。请参见表1了解详细的体系结构。 ImageNet 的架构。方括号中显示了构建块(参见图5)并显示了堆叠块的数量。下采样由 conv3_1、conv4_1和 conv5_1进行步长为2。 表2的结果表明较深的34层平原网比较浅的18层平原网具有更高的验证误差。为了揭示原因在图4(左)中我们比较了它们在训练过程中的训练/验证误差。我们已经观察到退化问题尽管18层平面网络的解空间是34层平面网络解空间的子空间但34层平面网络在整个训练过程中的训练误差更高。 我们认为这种 优化困难不太可能是由梯度消失引起的。这些普通网络使用 B N BN BN [16]进行训练这 确保了前向传播的信号具有非零方差。我们还验证了反向传播梯度与 B N BN BN 表现出健康范数。所以向前和向后的信号都不会消失。 事实上34层的普通网络仍然能够达到有竞争力的准确率表3表明求解器在一定程度上是有效的。我们推测深层普通网络可能有指数低的收敛速率这影响了训练误差的减少。造成这种优化困难的原因将在未来进行研究。 残差网络 residual network 接下来我们评估18层和34层残余网(ResNets)。基线架构与上面的普通网络相同除了向每对3×3过滤器添加一个快捷连接外如图3(右)所示。在第一个比较中(表2和图4右)我们对所有快捷键使用标识映射对增加维度使用零填充(选项A)。因此与普通对应项相比它们没有额外的参数。 我们从表2和图4中得到了三个主要观察结果。首先残差学习的情况正好相反——34层的 ResNet 比18层的 ResNet 好2.8%。更重要的是34层的 ResNet 显示出相当低的训练误差并且可以推广到验证数据。这表明在这种情况下退化问题得到了很好的解决我们设法从增加的深度中获得精度增益。 其次与普通的同类相比34层的 ResNet 将top-1的误差减少了3.5%(表2)这是由于成功地减少了训练误差(图4右vs左)。这一对比验证了残差学习在极深度系统上的有效性。 最后我们还注意到18层的普通/残余网络相对准确(表2)但18层的 ResNet 收敛得更快(图4右vs左)。当网络“不太深”(这里是18层)时当前的 SGD 求解器仍然能够找到普通网络的良好解。在这种情况下ResNet 通过在早期阶段提供更快的收敛速度来简化优化。 恒等vs.快捷连接 我们已经证明了无参数、恒等快捷方式有助于训练。接下来我们研究投影捷径(Eqn.(2))。在表3中我们比较了三种选项 (A) 零填充快捷方式用于增加维度并且所有快捷方式都是无参数的(与表2和图4右相同) (B) 投影快捷键用于增加维数其他快捷键为恒等 (C) 所有的捷径都是投影。 表3显示这三个选项都比普通选项好得多。B略好于A我们认为这是因为A中的零填充维度确实没有残差学习。C略好于B我们将其归因于许多(13个)投影捷径引入的额外参数。但 A/B/C之间的微小差异表明投影捷径对于解决退化问题并非必不可少。因此我们在本文的其余部分 不使用选项C以减少内存/时间复杂性和模型大小。恒等快捷方式对于避免增加下面介绍的瓶颈体系结构的复杂性尤为重要。 更深的瓶颈架构 接下来我们描述 ImageNet 的更深网络。由于考虑到我们所能负担的培训时间我们将构建块修改为 瓶颈设计。对于每个残差函数 F \mathcal F F我们使用3层而不是2层的堆栈(图5)。这三层是 1×1, 3×3 和 1×1 卷积其中 1×1 层负责减少然后增加(恢复)维度使 3×3 层成为输入/输出维度较小的瓶颈。 图5给出了一个例子其中两种设计具有相似的时间复杂度。 ImageNet 的更深的残差函数 F \mathcal F F。左ResNet34的构建块(在56×56特征映射上)如图3所示。右ResNet-50/101/152的“瓶颈”构建块。 无参数恒等快捷方式对于瓶颈体系结构尤其重要。如果将图5(右)中的恒等快捷方式替换为投影可以看出由于快捷方式连接到两个高维端点时间复杂度和模型尺寸都增加了一倍。因此恒等快捷为瓶颈设计提供了更有效的模型。 50层 ResNet我们用这个3层瓶颈块替换34层网络中的每个2层块从而得到一个50层 ResNet(表1)。我们使用选项B来增加维度。这个模型有38亿次浮点运算。 101层和152层ResNet:我们通过使用更多的3层块来构建101层和152层ResNet(表1)。值得注意的是虽然深度显著增加但152层ResNet(113亿FLOPs)仍然比VGG-16/19网络(153 / 196亿FLOPs)具有更低的复杂性。 50/101/152层的resnet比34层的resnet更准确(表3和4)。我们没有观察到退化问题因此从相当大的深度中获得了显着的精度增益。深度的好处体现在所有评估指标上(表3和表4)。 与 SOTA 比较 与最先进方法的比较。在表4中我们与之前的最佳单模型结果进行了比较。 我们的基准34层 ResNets 已经达到了非常有竞争力的精度。我们的152层 ResNet 的单模型前5验证误差为4.49%。这个单一模型的结果优于之前所有的集成结果(表5)。 我们 将六个不同深度的模型组合成一个集成 (在提交时只有两个152层的模型)。这导致测试集的top-5误差为3.57%(表5)。该作品在2015年 ILSVRC 上获得了第一名。 4.2. CIFAR-10和分析 我们对CIFAR-10数据集[20]进行了更多的研究该数据集由10个类的50k训练图像和10k测试图像组成。我们提出了在训练集上进行训练并在测试集上进行评估的实验。我们的 重点是极深网络的行为而不是推动最先进的结果所以我们 有意使用简单的架构 如下。 普通/残差架构遵循图3(中/右)中的形式。网络输入是32×32图像每像素的平均值被减去。第一层是3×3卷积。然后我们使用一个6n层的堆栈分别对大小为{32,16,8}的特征映射进行3×3卷积每个特征映射大小为2n层。过滤器的个数分别为{16、32、64}。子采样是通过步长为2的卷积来完成的。网络以全局平均池、10路全连接层和softmax结束。总共有6n2个堆叠的加权层。下表总结了该架构 当使用快捷方式连接时它们连接到3×3层对(总共3n个快捷方式)。在这个数据集上我们在所有情况下都使用恒等快捷方式(即选项A)因此我们的残差模型与普通模型具有完全相同的深度、宽度和参数数量。 我们使用0.0001的权重衰减和0.9的动量并采用[13]和BN[16]中的权重初始化但没有dropout。这些模型在两个gpu上以128的小批量大小进行训练。我们以0.1的学习率开始在32k和48k迭代时将其除以10并在64k迭代时终止训练这是在45k/5k训练/val分割上确定的。我们按照[24]中的简单数据增强方法进行训练每边填充4个像素从填充的图像或其水平翻转中随机采样32×32裁剪。为了进行测试我们只评估原始32×32图像的单个视图。 我们比较n {3,5,7,9}得出20层、32层、44层和56层网络。图6(左)显示了平面网的性能。深平面网深度增加深度越深训练误差越大。这种现象与 ImageNet (图4左)和 MNIST(见[42])上的情况类似表明这种优化难度是一个基本问题。 图6。CIFAR-10上的训练。虚线表示训练错误粗线表示测试错误。左:普通网络。plain-110错误大于60%。没有显示。中间:ResNets。右:110层和1202层的resnet。 图6(中)为 ResNets 的行为。同样类似于 ImageNet 案例(图4右)我们的ResNets 设法克服了优化困难并在深度增加时展示了精度的提高。 我们进一步探索n 18从而得到110层的ResNet。在这种情况下我们发现0.1的初始学习率略大无法开始收敛5。所以我们用0.01来预热训练直到训练误差低于80%(大约400次迭代)然后再回到0.1继续训练。学习计划的其余部分和前面一样。这个110层的网络具有很好的收敛性(图6中)。它具有比其他深和薄更少的参数如FitNet[35]和Highway[42]等网络(表6)但其结果却是最先进的(6.43%表6)。 层响应分析 CIFAR10上层响应的标准差(std)。响应是每个3×3层的输出在BN之后和非线性之前。上图:图层按原始顺序显示。底部:响应按降序排列。 图7显示了各层响应的标准差(std)。响应是每个3×3层的输出在BN之后和在其他非线性(ReLU/加法)之前。对于 ResNets该分析揭示了残差函数的响应强度。 图7显示ResNet 的响应通常比 plain 的响应小。这些结果支持我们的基本动机(第3.1节)即残差函数通常比非残差函数更接近于零。 我们还注意到更深的 ResNet 具有较小的响应幅度如图7中 ResNet-20, 56和110的比较所证明。当有更多的层时单个层的 ResNets 倾向于较少地修改信号。 探索超过1000层 我们探索了一个超过1000层的深度模型。我们设置 n 200得到一个1202层的网络按照上面的描述进行训练。我们的方法没有优化难度这个103层的网络能够实现训练误差0.1%(图6右)。它的测试误差仍然相当好(7.93%表6)。 但在如此激进的深度模型上仍存在有待解决的问题。这个1202层网络的测试结果比我们的110层网络的测试结果差虽然两者都是有类似的训练误差。我们认为这是因为过度拟合。对于这个小数据集来说1202层的网络可能太大了(19.4M)。采用 maxout[10]或 dropout[14]等强正则化方法在该数据集上获得最佳结果([10,25,24,35])。在本文中我们没有使用 maxout/dropout只是通过设计简单地通过深度和薄架构强加正则化而不会分散对优化难点的关注。但结合更强的正则化可能会改善结果我们将在未来研究。 何凯明大佬现场讲解 ResNet 何凯明现场讲解 ResNet【AI Talking】CVPR2016 最佳论文 ResNet 现场演讲 大佬的 PPT 截了一些图不得不说大佬的答辩 PPT 做得也很棒完全可以大创答辩的时候参考这个格式 VGG 的设计经验 提问 大佬的回答
http://www.zqtcl.cn/news/729862/

相关文章:

  • 自己做网站需要什么技能比邻店网站开发
  • 网站建设杭州最便宜劳务公司找项目平台
  • jsp做网站毕业设计安徽省交通运输厅章义
  • 企业网站有哪几个类型广州做网站市场
  • 直播网站建设开发上海注册公司多少钱
  • 可以兼职做设计的网站备案期间能否做网站解析
  • 做发帖的网站代码seo联盟平台
  • 铁威马 Nas 做网站百度广告代运营
  • 有没有帮别人做网站小说关键词生成器
  • 那些开店的网站是自己做的吗装修平台排行榜前十名
  • 重庆智能网站建设价格毕业设计做系统跟做网站哪个容易
  • 淘宝美工做兼职的网站多多返利网站建设
  • 如何承接设计网站建设电商平台开发流程
  • 安康做网站简洁高端的wordpress个人博客
  • 酒店网站建设协议手机怎么做销售网站
  • 屏蔽网站接口js广告seminar
  • 谁有手机网站啊介绍一下wordpress 流量插件
  • 杭州网站公司google网站建设
  • 莱芜住房和城乡建设厅网站网站头部设计
  • 织梦响应式茶叶网站模板邯郸最新通告今天
  • 深圳公司网站改版通知做网站分类链接
  • 电子商务网站建设答案网络运营与维护
  • 网站登陆怎么做网站app的区别
  • 获取网站缩略图工信部2017网站备案
  • 有哪些网站可以做ps挣钱自己制作游戏
  • 旅游网站开发团队四川住房和城乡建设网站
  • 网站框架设计商城网站制作需要多少费用
  • 网站建设哪个公司个人网站做哪种能赚钱
  • 福建建设人才与科技发展中心seo导航站
  • 修文县生态文明建设局网站郑州制作网站哪家好