当前位置: 首页 > news >正文

车佣做汽车网站怎么样网站换主题

车佣做汽车网站怎么样,网站换主题,网站域名301是什么意思,工信部域名备案查询官网摘要 目前#xff0c;神经网络架构设计主要以计算复杂度的间接指标#xff08;即 FLOPs#xff09;为指导。然而#xff0c;直接指标#xff08;如速度#xff09;还取决于其他因素#xff0c;如内存访问成本和平台特性。因此#xff0c;这项工作建议在目标平台上评估…摘要 目前神经网络架构设计主要以计算复杂度的间接指标即 FLOPs为指导。然而直接指标如速度还取决于其他因素如内存访问成本和平台特性。因此这项工作建议在目标平台上评估直接指标而不仅仅考虑 FLOPs。在一系列受控实验的基础上本研究为高效网络设计提供了若干实用指南。因此本文提出了一种新架构称为ShuffleNet V2。全面的消融实验验证了我们的模型在速度和准确性的权衡方面是最先进的。 引言 深度卷积网络CNNs架构经过多年发展变得越来越精确和快速。自AlexNet这一里程碑式的研究成果问世以来通过新颖的结构包括VGG、GoogLeNet、ResNet、DenseNet、ResNeXt、SE-Net以及自动网络架构搜索等等。 除了精度计算复杂度也是另一个重要的考虑因素。现实世界中的任务通常是在目标平台如硬件和应用场景如要求低延迟的自动驾驶给出的有限计算预算下获得最佳精度。这就促使一系列工作朝着轻量级架构设计和更好的速度-精度权衡方向发展其中包括Xception、MobileNet、MobileNet V2、ShuffleNet和CondenseNet等等。在这些工作中分组卷积和深度卷积至关重要。 图1四种网络架构在两种不同计算复杂度的硬件平台上的准确度验证集上的ImageNet分类、速度和FLOPs的测量结果。(a)、(c)是GPU上batch size为8的结果。(b)、(d)是ARM上batch size为1的结果。在所有情况下性能最好的算法即我们提出的ShuffleNet V2都位于右上角区域。 要衡量计算复杂度一个广泛使用的指标是浮点运算次数FLOPs。然而FLOPs是一个间接指标。它是速度或延迟等指标的近似值但通常并不等同与我们真正关心的指标。这种差异已被注意到。在以前的工作中。例如MobileNet V2比NASNET-A快得多但它们的FLOPs却不相上下。图1进一步说明了这一现象表明具有相似FLOPs的网络具有不同的速度。因此将FLOPs作为计算复杂度的唯一指标是不够的可能会导致次优设计。 间接指标FLOPs和直接指标速度之间的差异主要有两个原因。首先FLOPs没有考虑对速度有重大影响的几个重要因素。其中一个因素是内存访问成本MAC。在某些操作如分组卷积中这种成本占运行时间的很大一部分。在计算能力较强的设备如GPU上它可能会成为瓶颈。在网络架构设计中不应简单地忽略这一成本。另一个代价是并行程度。在FLOP相同的情况下并行程度高的模型可能比并行程度低的模型快得多。 其次根据平台的不同具有相同FLOPs的操作可能会有不同的运行时间。例如张量分解在早期的工作中被广泛用于加速矩阵乘法。然而最近的工作发现中的分解虽然减少了75%的FLOPs但在GPU上却更慢。我们对这一问题进行了研究发现这是因为最新的CUDNN库专门针对 3 × 3 3 \times 3 3×3卷积进行了优化。我们不能想当然的认为 3 × 3 3 \times 3 3×3比 1 × 1 1 \times 1 1×1慢9倍。 图2两个具有代表性的先进网络架构ShuffeNet V1和MobileNet V2的运行时间分解 有鉴于此我们建议在进行有效的网络架构设计时应考虑两个原则。首先应使用直接指标如速度而不是间接指标如FLOPs。其次应在目标平台上对这些指标进行评估。 在这项工作中我们遵循这两个原则提出了一种更有效的网络结构。在第2节中我们首先分析了两个具有代表性的最先进网络的运行性能。然后我们推导出四条高效网络设计准则这些准则不仅仅考虑FLOPs。虽然这些准则与平台无关但我们在两个不同的平台GPU和ARM上进行了一系列消融实验通过专门的代码优化验证了这些准则从而确保我们的结论是最先进的。在第3节中我们根据指南设计了一种新的网络结构。由于受到ShuffleNet的启发它被称为ShuffleNet V2。通过第4节中的综合验证实验它在两个平台上都比之前的网络更快、更准确。在计算复杂度预算为 4 × 1 0 7 4 \times 10^{7} 4×107FLOPs的情况下ShuffleNet V2比ShuffleNet V1和MobileNet V2的精确度分别高出3.5%和3.7%。 高效网络设计实用指南 我们的研究是在两个广泛采用的硬件上进行的并对CNN库进行了行业级优化。我们注意到我们的CNN库比大多数开源库更高效。因此我们确保我们的观察和结论是可靠的对行业实践具有重要意义。 GPU使用NVIDIA GeForce GTX 1080Ti。卷积算子为CUDNN 7.0。我们还激活了CUDNN的基准测试功能分别为不同的卷积选择最快的算法。ARM使用高通骁龙810。我们使用高度优化的基于Neon的实现。使用单线程进行评估。 表1准则1的验证实验。测试了输入/输出通道数的四种不同比例$c_1$和$c_2$并通过改变通道数来固定四种比例下的总FLOPs。输入图像大小为$56 \times 56$。 其他设置包括开启全部优化选项例如张量融合用于减少小运算的开销。输入图像大小为 224 × 224 224 \times 224 224×224。每个网络随机初始化并评估100次。采用平均运行时间。 作为研究的开端我们分析了两种最先进网络的运行性能即ShuffleNet V1和MobileNet V2。这两个网络在ImageNet分类任务中都具有很高的效率和准确性。它们都广泛应用于手机等低端设备。虽然我们只分析了这两个网络但我们注意到它们代表了当前的趋势。即核心为分组卷积和深度卷积这也是其他最先进网络的关键组成部分如ResNeXt、Xception、MobileNet和CondenseNet。 如图\ref{yxsjfj}所示对不同操作的整体运行时间进行了分解。我们注意到FLOPs指标只考虑了卷积部分。虽然这部分消耗的时间最多但其他操作包括数据输入输出、数据打乱和元素操作AddTensor、ReLU等也消耗了大量时间。因此FLOPs并不能准确估算实际运行时间。 基于这一观察结果我们从几个不同方面对运行时间或速度进行了详细分析并得出了高效网络架构设计的若干实用指南。 通道宽度相同内存访问成本MAC最小。现代网络通常采用深度可分离卷积其中点卷积即 1 × 1 1 \times 1 1×1卷积占据大部分复杂性\wxyy{b15}。我们研究的是 1 × 1 1 \times 1 1×1卷积的核形状。形状由两个参数指定输入通道数 c 1 c_1 c1​和输出通道数 c 2 c_2 c2​。假设 h h h和 w w w是特征图的空间大小则 1 × 1 1 \times 1 1×1卷积的FLOPs为 B h w c 1 c 2 B hwc_1c_2 Bhwc1​c2​ 为简单起见我们假设计算设备中的高速缓存足够大可以存储整个特征图和参数。因此内存访问成本MAC或内存访问操作次数为MAC h w ( c 1 c 2 ) c 1 c 2 hw(c_1 c_2) c_1c_2 hw(c1​c2​)c1​c2​。请注意这两个项分别对应于输入/输出特征图和核权重的内存访问。根据均值不等式我们可以得出 M A C ≥ 2 h w B B h w . \begin{equation} MAC \geq 2\sqrt{hwB} \frac{B}{hw}. \end{equation} MAC≥2hwB ​hwB​.​​ 因此MAC有一个由FLOPs给出的下限。当输入和输出通道相等时它就达到了下限。 结论是理论上的。实际上很多设备的缓存都不够大。此外现代计算库通常会采用复杂的分块策略来充分利用缓存机制。因此真实的MAC可能与理论上的MAC有所偏差。为了验证上述结论我们进行了如下实验。通过重复堆叠10个模块来构建一个基准网络。每个模块包含两个卷积层。第1层包含 c 1 c_1 c1​个输入通道和 c 2 c_2 c2​个输出通道第2层则不包含。 表1展示了在固定总FLOPs的情况下通过改变 c 1 c_1 c1​: c 2 c_2 c2​的比例所获得的运行速度。很明显当 c 1 c_1 c1​: c 2 c_2 c2​接近1:1时MAC变小网络推理速度加快。 过多的分组卷积会增加MAC。分组卷积是现代网络架构的核心。它通过将所有通道之间的密集卷积变为稀疏仅在通道分组内降低了计算复杂度FLOPs。一方面它允许在FLOPs固定的情况下使用更多通道并增加了网络容量因此精度更高。但另一方面通道数量的增加会导致更多的MAC。 形式上根据公式1中的符号 1 × 1 1 \times 1 1×1分组卷积的MAC和FLOP之间关系为 M A C h w ( c 1 c 2 ) c 1 c 2 g h w c 1 B g c 1 B h w , \begin{align} MAC hw(c_1 c_2) \frac{c_1c_2}{g}\\ hwc_1 \frac{Bg}{c_1} \frac{B}{hw}, \end{align} MAC​hw(c1​c2​)gc1​c2​​hwc1​c1​Bg​hwB​,​​ 其中 g g g是分组组数 B h w c 1 c 2 / g B hwc_1c_2/g Bhwc1​c2​/g是FLOPs。不难看出在输入形状 c 1 × h × w c_1 \times h \times w c1​×h×w和计算成本 B B B固定的情况下MAC会随着 g g g的增长而增加。 表2准则2的验证实验。输入图像大小为$56 \times 56$。 为了研究实际应用中的效果我们通过堆叠10个分组卷积层建立了一个基准网络。表2展示了在固定总FLOPs的情况下使用不同的组数。很明显使用较大的组数会大大降低运行速度。例如在GPU上使用8组比使用1组标准密集卷积慢2倍多在ARM上慢30%。这主要是由于MAC增加所致。注意我们的实现经过了特别优化比逐个组计算卷积要快得多。 因此我们建议应根据目标平台和任务谨慎选择组数。仅仅因为可以使用更多通道而使用较大的组数是不明智的因为精度提高带来的好处很容易被迅速增加的计算成本所抵消。 网络分割降低了并行程度。在GoogleNet系列和自动生成的架构中每个网络块都广泛采用了“多路径”结构。大量的小算子被使用而不是几个大算子。例如在NASNETA中小算子的数量即一个模块中单独卷积或集合运算的数量为13个。相比之下在ResNet等常规结构中这一数字为2或3。 虽然这种片段式结构已被证明有利于提高准确性但它可能会降低效率因为它对GPU等具有强大并行计算能力的设备不友好还会带来额外的开销如内核启动和同步。 表3准则3验证实验。其他分块结构的通道数经过调整时FLOPs与1分块相同。输入图像大小为$56 \times 56$。 为了量化小算子对效率的影响我们评估了一系列具有不同小算子程度的模块。具体来说每个模块由1至4个 1 × 1 1 \times 1 1×1卷积组成它们依次或平行排列。每个模块重复堆叠10次。表3中的结果显示在GPU上分块结构大大降低了速度例如4分块结构比1分块结构慢3倍。在ARM上速度降低幅度相对较小。 图3ShuffleNet V1和本作品的架构模块。a基本Shufflenet 单元b用于空间向下采样($2 \times$)单元c我们的基本单元d我们的空间向下采样($2 \times$)单元。DWC深度卷积。GConv分组卷积。 逐元素操作不可忽略。如图3所示在等轻量级模型中逐元素操作占用了大量时间尤其是在GPU上。在这里逐元素运算包括ReLU、ADDTensor、AddBias等。它们的FLOPs较小但MAC相对较重。特别值得一提的是我们还将深度卷积视为一种逐元素算子因为它的MAC/FLOPs比率也很高。 表4准则4的验证实验。$c$为单元中的通道数。该带院重复堆叠10次以确定速度。 为了进行验证我们使用了ResNet中的“bottleneck”单元 1 × 1 1 \times 1 1×1卷积接着是 3 × 3 3 \times 3 3×3卷积然后是 1 × 1 1 \times 1 1×1卷积带有ReLU和残差连接进行实验。ReLU和残差连接被分别删除。不同变体的运行时间见表\ref{biao4}。我们发现去掉ReLU和残差连接后在GPU和ARM上的运行速度提高了约20%。 结论与讨论。根据上述指导原则和经验研究我们得出结论高效的网络架构应1使用通道宽度相等的卷积2注意使用分组卷积的成本3降低分块操作4减少逐元素操作。这些理想特性取决与平台特性如内存操作和代码优化超出了理论FLOP。在实际网络设计中应考虑这些因素。 最近在轻量级神经网络架构方面取得的进展大多数基于FLOPs指标并没有考虑上述这些适当的关系。例如ShuffleNet V1在很大程度上依赖于分组卷积违反了准则2。类似“bottleneck”的构建。违反了准则1。MobileNet V2采用了一种违反准则1的倒置“bottleneck”结构。它在“厚”特征图上使用深度卷积和ReLU这违反了准则4。自动生成的结构高度分散违反了准则3。 ShuffleNet V2高效架构 回顾ShuffleNet V1。ShuffleNet是一种最先进的网络架构。它被广泛应用于手机等低端设备。它启发了我们的工作。因此我们首先对其进行回顾和分析。 根据文献轻量级网络面临的主要挑战是在给定的计算限制FLOPs下只能负担有限数量的特征通道。为了在不大幅增加FLOPs的情况下增加通道数量采用了两种技术逐点群卷积和“bottleneck”结构。然后引入通道混洗操作以实现不同通道组之间的信息沟通并提高精度。图3展示了这些构建模块。 如第2节所述逐点群卷积和bottleneck结构都会增加MAC准则1和准则2。这种代价是不可忽略的特别是对于轻量级模型。此外使用过多的分组也会违反准则3。残差连接中逐元素的“加”操作也是不可取的准则4。因此为了实现模型的高容量和高效率关键问题是如何在既不密集卷积又不使用过多分组的情况下保持大量且同样宽的通道。 通道分隔。ShuffleNet V2为实现上述目的引入了一个简单的运算法称为通道分隔channel split。如图\ref{zys}©所示。在每个单元开始时 c c c个特征通道的输入被分成两个分支分别为 c − − c ′ c--c^{\prime} c−−c′和 c ′ c^{\prime} c′个通道。根据准则31个分支保持不变。另一个分支由3个具有相同输入和输出通道的卷积组成以满足准则1的要求。不同的是两个 1 × 1 1 \times 1 1×1卷积不再分组。一方面是为了遵循准则2另一方面是因为拆分操作已经产生了两个组。 卷积后两个分支被合并。因此通道数保持不变准则1。然后使用与相同的通道混洗操作使两个分支之间进行信息交流。混洗结束后下一个单元开始。请注意ShuffleNet V1中的“加”操作已不复存在。像ReLU和深度卷积这样的元素操作只存在于1个分支中。此外“Concat”、“Channel Shuffle”和“Channel Split”这三个连续的元素操作被合并为一个单一的元素操作。根据准则4这些变化是有益的。 图4DenseNeT和ShuffleNet V2的特征重用模式说明。(a)模型中卷积层的平均绝对滤波权重。像素$(s,l)$的颜色表示连接层$s$和层$l$的平均l1-norm权重。(b)在ShuffleNet V2中像素$(s,l)$的颜色表示直接连接块$s$和块$l$的通道数。 对于空间向下采样该单元稍作修改如图3(d)所示去掉了通道分隔运算符。因此输出通道的数量增加了一倍。 模块©(d)以及由此产生的网络被称为ShuffleNet V2。根据上述分析我们得出结论这一架构设计遵循了所有准则因此非常高效。 表5针对四种不同复杂程度的ShuffleNet V2的总体结构。 这些模块通过重复堆叠来构建整个网络。为简单起见我们假设 c ′ c 2 c^{\prime} \frac{c}{2} c′2c​。整体网络结构类似与ShuffleNet V1如表5所示只有一点不同在全局平均池化之前增加了一个额外的 1 × 1 1 \times 1 1×1卷积层来混合特征这在ShuffleNet V1中是没有的。每个模块中的通道数都是按比例增加的以生成不同复杂度的网络标记为 0.5 × 0.5 \times 0.5×、 1 × 1 \times 1×等。 网络准确性分析。ShuffleNet V2不仅高效而且准确。主要原因有两个。首先每个构建的高效率使得可以使用更多的特征通道和更大的网络容量。其次在每个模块中有一半的特征通道当 c ′ c 2 c^{\prime} \frac{c}{2} c′2c​时直接穿过该模块并加入下一个模块。这可以看作是一种特征重用与DenseNet和CondenseNet的概念类似。 在DenseNet中为了分析特征重用模式绘制了层与层之间的l1-norm权重如图3(a)。很明显相邻层之间的连接比其他层更紧密。这意味着所有层之间的密集连接可能会带来冗余。最近的CondenseNet也支持这一观点。 在ShuffleNet V2中很容易证明第 i i i个和第 i 1 i1 i1个模块之间的“直接连接”通道数为 r j c r^{j}c rjc其中 r ( 1 − c ′ ) / c r (1-c^{\prime})/c r(1−c′)/c。换句话说特征重用量随两个模块之间的距离呈指数衰减。在距离较远的模块之间特征重用会变得更弱。图\ref{qzt}(b)绘制了与(a)类似的可视化 r 0.5 r0.5 r0.5。请注意(b)中的模式与(a)中相似。 因此ShuffleNet V2的结构在设计上实现了这种特征重用模式。与DenseNet类似它也具有重复使用特征以获得高精度的优点但如前文所分析的它的效率更高。表8的实验验证了这一点。 实验 我们的消融实验是在ImageNet 2012分类数据集上进行的。按照惯例所有对比网络的计算复杂度分为4个等级即40、140、300和500MFLOPs。这种复杂度是移动场景的典型特征。其他超参数和协议与ShuffleNet V1完全相同。 我们将其与以下网络架构进行比较。ShuffleNet V1对一系列组数 g g g进行了比较。结果表面 g 3 g3 g3在准确性和速度之间有更好的权衡。这与我们的观察结果一致。在这项工作中我们主要使用 g 3 g3 g3。 MobileNet V2。它优于MobileNet V1。为了进行全面比较我们同时展示了原始论文和我们重新实现的准确性因为中的一些结果无法获得。 Xception。最初的Xception模型非常庞大FLOPs2G超出了我们的比较范围。最近的工作提出了一种改进的轻量级Xception结构在精度和效率之间显示出更好的权衡。因此我们将与这一变体进行比较。 DenseNet。最初的工作只展示了大型模型FLOPs 2G的结果。为了直接进行比较我们按照表5中的架构设置重新实现了它其中第2-4阶段的模块包括的DenseNet块。我们会更加不同的目标复杂度调整通道数量。表8汇总了所有结果。我们从不同方面对这些结果进行分析。 精度与FLOPs。很明显所提出的ShuffleNet V2模型远远优于所有其他网络。尤其是在计算预算较低的情况下。此外我们还注意到在图像大小为 224 × 224 224 \times 224 224×224的情况下MobileNet V2在40MFLOPs的水平上表现较差。这可能是由于通道太少造成的。相比之下我们的模型没有这个缺点因为我们的高效设计允许使用更多通道。此外虽然我们的模型和DenseNet都重复使用了特征但我们的模型更高效这将在第3节中讨论表8还将我们的模型与其他最先进的网络进行了比较包括CondenseNet、IGCV2和IGCV3。我们模型在各种复杂度水平上都表现得更好。 推理速度FLOPs/准确度。对于ShufleNet V2、MobileNet V2、ShuffleNet V1 和Xception这四种精度较高的架构我们比较了它们的实际速度与FLOPs如图1©(d)所示。ShuffleNet V2明显快于其他三个网络尤其是在GPU上。例如在500MFLOPs 下ShuffleNet V2比MobileNet V2快58%比ShuffleNet vl快63%比Xception 快2%。在ARM上ShuffleNet vl、Xception和ShuffleNet V2的速度相当但MobileNet V2要慢得多尤其是在较小的FLOP上。我们认为这是因为MobileNet V2的 MAC较高见第2章中的准则1和准则4这在移动备上非常重要。 与MobileNet V1、IGCV2和IGCV3相比我们有两个观察结果。首先虽然MobileNet V1的准确度不如ShuffleNet V2但它在GPU上的运行速度却比所有同类产品都快。我们认为这是因为它的结构满足了大多数建议准则(例如对于准则3MobileNet V1的分块甚至比ShuffleNet V2更少)。其次IGCV2和IGCV3速度较慢。这是由于使用了太多的分组卷积。这两点都与我们提出的指导原则相一致。最近自动模型搜索已成为CNN架构设计的大势所趋。表8底部评估了一些自动生成的模型。我们发现它们的速度相对较慢。我们认为这主要是由于使用了太多的分块准则3。尽管如此这一研究方向仍然大有可为。例如如果将模型搜索算法与我们提出的指南相结合可能会获得更好的模型 而直接指标速度则在目标平台上进行评估。 最后图1(a)(b)总结了精度与速度直接指标的对比结果。我们得出结论ShuffeNet V2在GPU和ARM的表现都是最好的。 \textbf{与其他方法的兼容性}。ShuffleNet V2可以与其他技术相结合进一步提高性能。如果配备挤压和激励SE 模块ShuffleNet V2的分类准确率会提高0.5%但速度会受到一定影响。 表6大型模型的结果。 适用于大模型。虽然我们的主要消融是在轻量级场景下进行的但ShuffleNet V2可用于大型模型如FLOPs 2G。表6比较了50层的ShuffleNet V2与ShuffleNet V1和ResNet50。ShuffleNet V2在2.3GFLOPs时的性能仍然优于 ShuffleNet V1而ResNet-50则比ShuffleNet V1 低40%。对于深度很深的ShuffleNet V2例如超过100层为了使训练收敛得更快我们对ShuffleNet V2的基本单元稍作修改增加了残差连接。表6列出了一个配备SE组件的164层ShuffleNet V2模型。与之前的先进模型相比它以更少的FLOPs获得了更高的精度。 \textbf{目标检测}。为了评估泛化能力我们还测试了COCO目标检测任务。我们使用最先进的轻量级检测器Light-Head RCNN作为框架并遵循相同的训练和测试协议。我们只替换了骨干网络。模型在ImageNet上进行预训练然后在检测任务中进行微调。训练时我们使用COCO中的trainval集但从minival集中抽取5000张图像并使用minival集进行测试。准确度指标是COCO标准mmAP即在0.5至0.95的方框IoU值下的平均mAP。 ShuffleNet V2与其他三种轻量级模型进行了比较:Xception、ShuffleNet V1和MobileNet V2。表7中的结果显示ShuffleNet V2的性能最好。 将目标检测结果表7与分类结果表8进行比较后发现分类准确率排名为ShufleNet V2 MobileNet V2 ShuffeNet V1 Xception而目标检测准确率排名为ShuffleNet V2 Xceptiono ShuffleNet V1。这表明Xception在检测任务中表现出色。这可能是因为Xception模块的感受野比其他对应模块更大7:3。受此启发我们也扩大了ShuffleNet v2的感受野。这种变体被称为ShuffleNetv2*。只需增加几个FLOP它就能进一步提高准确性。 我们还对GPU的运行时间进行了基准测试。为了进行公平比较我们将batch size设置为4以确保GPU得到充分利用。由于数据复制的开销分辨率高达 800 × 1200 800 \times 1200 800×1200和其他特定检测的开销我们对GPU的运行时间进行了基准测试。 表7COCO目标检测性能。输入图像大小为$800 \times 1200$。FLOPs行列出了输入大小为$224 \times 224$时的复杂度级别。对于GPU速度评估batch size为4。我们没有测试ARM因为\wxyy{b34}中所需的PSRoI池化操作目前在ARM上不可用。 尽管如此ShuffleNet V2的性能仍然优于其他模型例如比ShuffleNet V1快约40%比MobileNet V2快约16%。 此外变体ShuffleNet v2*的准确度最高而且比其他方法更快。这就提出了一个实际问题如何增加感受野的大小这对于高分辨率图像中的物体检测至关重要。我们将在未来研究这一课题。 结论 我们建议网络架构设计应考虑速度等直接指标而不是FLOPs等简介指标。我们提出了使用的指导原则和新颖的架构ShuffleNet V2。我们希望这项工作能启发未来的网络架构设计工作使其具有平台意识并更加实用。 表8在两个平台和四个计算复杂度级别上比较几种网络架构的分类误差验证集单中心物体和速度。为了更好地进行比较结果按复杂度分组。GPU 的批次大小为 8ARM 为 1。图像大小为 224 × 224[*] 160 × 160 和 [**] 192 × 192 除外。由于目前缺乏有效的实现方法我们没有提供 CondenseNets 的速度测量结果。 附录 附图1准则3实验中使用的构件。(a)分块1。(b)分块2。 (c)分 块 4。(d)平行分 块 2。 (e)平行分块4。 附图2带SE和残差连接的ShuffleNet V2结构。(a)带残差连接的ShuffleNet V2。(b)带 SE的ShuffleNet V2。(c)带SE和残差连接的ShuffleNet V2。 附录表1表(a)比较了每个网络整个架构的速度。表b比较了每个网络单元的速 度我们将每个网络的10个网络单元堆叠在一起c值表示ShuffleNet V2的通道数我 们调整通道数以保持其他网络单元的FLOPs 不变。对于输入大小为320 × 320的4kw FLOPs模型为确保GPU利用率我们将batch size设置为8否则设为0。
http://www.zqtcl.cn/news/615051/

相关文章:

  • 电视网站后台管理系统漏洞淘客推广怎么做
  • 网站建设基础大纲文案丽江网站建设 莱芜
  • 程序员找工作的网站怎么给搞笑网站做文案
  • 网站flsh怎么做能被百度收录的建站网站
  • 娄底网站seo建平台网站费用
  • seo优化网站的注意事项WordPress伪静态公告404
  • 手机网站自动适应沈阳网站建设公司电话
  • 备案号网站下边苏州广告公司招聘
  • 企业网站设计模板js做网站
  • 福州最好的网站建设公司网络策划
  • 威宁做网站西部数码网站管理助手 没有d盘
  • 网站设计基础知识重庆seo博客推广
  • 中小企业商务网站建设wordpress dmeng
  • 关于网站建设总结公司网站购买主机
  • 定制网站与模板网站网页美工设计师工资
  • 丹棱县 网站建设wordpress公司主题破解版
  • 贾汪微网站开发百度推广登录账号首页
  • 网站开发和网站运营的区别嘉兴市秀洲区住房和建设局网站
  • 西安网站开发公司哪家强如何做付费阅读网站
  • ios认证 东莞网站建设天津企业网站建设方案
  • 高网站排名吗wordpress 拼音别名
  • 网站出现的问题杭州旅游网站建设
  • 陕西城乡建设部网站怎么用自己注册的域名做网站
  • 企业邮箱注册价格汕头做网站优化的公司
  • 高校工会网站建设网站静态页面生成
  • 辽宁省营商环境建设局 网站做网站前端后端ui什么意思
  • 合作社网站模板贵州安顺建设主管部门网站
  • 网站不备案能访问吗哪家做企业网站
  • 做网站写的代号好跟不好的区别企信网企业信用信息系统
  • 网站需要服务器吗手机网站解决方案