当前位置: 首页 > news >正文

delphi做网站wordpress 解释符号

delphi做网站,wordpress 解释符号,网页界面设计的类别,绵阳建网站论文笔记 资料 1.代码地址 2.论文地址 https://arxiv.org/abs/1411.4038 3.数据集地址 论文摘要的翻译 卷积网络是强大的视觉模型#xff0c;可以产生特征层次结构。我们表明#xff0c;卷积网络本身#xff0c;经过端到端#xff0c;像素对像素的训练#xff0c;在…论文笔记 资料 1.代码地址 2.论文地址 https://arxiv.org/abs/1411.4038 3.数据集地址 论文摘要的翻译 卷积网络是强大的视觉模型可以产生特征层次结构。我们表明卷积网络本身经过端到端像素对像素的训练在语义分割方面超过了最先进的技术。我们的关键见解是建立“完全卷积”网络该网络可以接受任意大小的输入并通过有效的推理和学习产生相应大小的输出。我们定义和详细描述了全卷积网络的空间解释了它们在空间密集预测任务中的应用并绘制了与先前模型的连接。我们将当代分类网络(AlexNet VGG网络和GoogLeNet)改编为全卷积网络并通过微调将其学习到的表征转移到分割任务中。然后我们定义了一种新的架构该架构将来自深层粗糙层的语义信息与来自浅层精细层的外观信息相结合以产生准确而详细的分割。我们的全卷积网络实现了PASCAL VOC(相对于2012年的62.2%平均IU提高了20%)、NYUDv2和SIFT Flow的最先进分割而对典型图像的推理时间不到五分之一秒。 1背景 从粗糙到精细推理的关键一步自然是对每个像素进行预测。先前的方法使用卷积神经网络进行语义分割其中每个像素都用其封闭对象或区域的类别进行标记但该工作解决了缺点。 该方法具有渐近性和绝对性两方面的有效性避免了其他工作中的复杂性。Patchwise训练很常见但缺乏全卷积训练的效率。我们的方法没有利用预处理和后处理的复杂性包括超像素建议或随机字段或局部分类器的事后细化[8,16]。我们的模型将最近在分类方面的成功转移到密集预测上将分类网络重新解释为完全卷积的并从其学习到的表示中进行微调。相比之下以前的作品应用了没有监督预训练的小convnets。 语义分割面临语义和位置之间固有的紧张关系:全局信息解决什么问题而局部信息解决哪里问题。 2论文的创新点 建立完全卷积网络该网络可以接受任意大小的输入并通过有效的推理和学习产生相应大小的输出。定义了一种新的架构该架构将来自深层粗糙层的语义信息与来自浅层精细层的外观信息相结合以产生准确而详细的分割。 3 论文方法的概述 convnet中的每一层数据是一个大小为 h × w × d h × w × d h×w×d的三维数组其中 h 和 w h和w h和w是空间维度 d d d是特征或通道维度。第一层是图像像素大小为 h × w h × w h×w有 d d d个颜色通道。更高层的位置对应于它们在图像中路径连接的位置这些位置被称为它们的接受野。 3.1 Adapting classifiers for dense prediction 典型的识别网络包括LeNet、AlexNet及其后继者表面上采用固定大小的输入并产生非空间输出。这些网的完全连接层具有固定的尺寸并且抛弃了空间坐标。完全连接层也可以被视为卷积其卷积核覆盖了整个输入区域。这样做将它们转换成完全卷积的网络可以接受任何大小的输入和输出分类图。这一转变如图2所示 AlexNet示例中对应的反向时间为单张图像2.4 ms全卷积10 × 10输出映射37 ms导致类似于正向传递的加速。这种密集的反向传播如图1所示。 3.2Shift-and-stitch is filter rarefaction 输入移位和输出交错是OverFeat引入的一种技巧可以在没有插值的情况下从粗输出中产生密集预测。如果输出按f的系数下采样则输入(通过左和上填充)向右移动 x x x个像素向下移动y个像素对于每个 ( x , y ) ∈ { 0 … f − 1 } × { 0 … f − 1 } (x, y)∈\{0… f−1\}×\{0… f−1\} (x,y)∈{0…f−1}×{0…f−1} 这 f 2 f^2 f2个输入都通过convnet运行输出是交错的这样预测就与它们的接受域中心的像素相对应 只改变滤波器和convnet的层步长可以产生与这种移位和缝合技巧相同的输出。考虑一个输入步长为 s s s的层(卷积或池化)以及一个过滤器权重为 f i j f_{ij} fij​的卷积层。将下层的输入步幅设置为1将其输出采样5倍就像shift-and-stitch一样。然而将原始滤波器与上采样输出进行卷积不会产生与技巧相同的结果因为原始滤波器只看到其(现在上采样)输入的减少部分。为了重现这个技巧将滤波放大为 f i j ′ { f i / s , j / s if  s divides both  i and  j ; 0 otherwise , \left.f_{ij}^{\prime}\left\{\begin{array}{ll}f_{i/s,j/s} \text{if }s\text{ divides both }i\text{ and }j;\\ 0 \text{otherwise},\end{array}\right.\right. fij′​{fi/s,j/s​0​if s divides both i and j;otherwise,​再现该技巧的完整净输出需要一层一层地重复这个滤波器放大直到所有的子采样被移除。 在网络中简单地减少子采样是一种权衡:过滤器可以看到更精细的信息但接受野更小计算时间更长。我们已经看到移位和缝合技巧是另一种权衡:在不减少过滤器的接受野大小的情况下输出变得更密集但过滤器被禁止以比原始设计更精细的规模访问信息。 33 上采样后向卷积 从某种意义上说因子 f f f的上采样是与 1 / f 1/f 1/f的分数阶输入步长的卷积。只要 f f f是积分的那么上采样的自然方法就是输出步长为 f f f的反卷积。因此通过像素损失的反向传播在网络中进行端到端学习的上采样。 3.4. Patchwise training is loss sampling 在随机优化中梯度计算是由训练分布驱动的。拼接训练和全卷积训练都可以产生任何分布尽管它们的相对计算效率取决于重叠和小批量大小。全图像全卷积训练与patch - wise训练相同其中每批训练由图像(或图像集合)损失以下的单元的所有接受域野组成。虽然这比对补丁进行统一采样更有效但它减少了可能批次的数量。然而图像中随机选择的补丁可以简单地恢复。将损失限制为其空间项的随机抽样子集(或者等效地在输出和损失之间应用将补丁从梯度计算中排除 如果保留的patch仍然有明显的重叠全卷积计算仍然会加快训练速度。如果梯度累积在多个反向通道上批次可以包括来自多个图像的补丁patch - wise训练中的采样可以纠正类不平衡减轻密集patch的空间相关性。在全卷积训练中也可以通过加权损失来实现类平衡并且可以使用损失采样来解决空间相关性 4 论文实验 4.1 FCN 定义了一种新的全卷积网络(FCN)用于分割它结合了特征层次结构的层并改进了输出的空间精度。参见图3。
http://www.zqtcl.cn/news/945990/

相关文章:

  • 大型大型网站制作wordpress产品相册
  • 古董做推广哪个网站好租空间开网站
  • 巴中网站建设开发公司网站上传在空间哪里
  • 哈尔滨网站建设赚钱么宁波大型网站制作
  • 自助网站搭建群晖搭建的wordpress外网访问
  • 社区网站建设申请报告WordPress评论通知邮箱
  • 佛山网站建设技术托管建设网站容易吗
  • 网站开发的层级结构iis6.0如何做网站301
  • 做旅游那些网站好个人博客怎么做
  • 中国最好网站建设公司网站前台做好之后再怎么做
  • 焦作整站优化app开发报价单及方案
  • 网站开发合同验收怎样建立网站 优帮云
  • 池州哪家做网站wordpress方小程序主题
  • 免费建设网站入驻七牛云存储wordpress
  • 上海专业的网站吕梁做网站公司
  • 网站视频链接国际物流网站模板
  • 用asp.net和access做的关于校园二手网站的论文网站环境搭建好后怎么做网站
  • 如何查网站的外链哈尔滨微信网站开发
  • 洛阳设计网站公司建设银行网站 购买外汇
  • 做视频网站的备案要求吗给工厂做代加工
  • 网站建设技术外包西安推荐企业网站制作平台
  • 建立一个做笔记的网站石家庄网站优化
  • 服务器创建多个网站吗中铁雄安建设有限公司网站
  • 建湖建网站的公司网站建设人工费
  • 沈阳公司网站设计公司怎么投放广告
  • 上海哪家做网站关键词排名如何做简洁网站设计
  • 网站维护的内容seo网站关键词优化哪家好
  • 东阳市网站建设西安做网站选哪家公司
  • 宁津网站开发万能应用商店下载
  • 专业制作标书网站地图优化