当前位置: 首页 > news >正文

哪里网站书最全南昌做企业网站

哪里网站书最全,南昌做企业网站,祥云平台建站,做磁力网站图像 检测 - DETR: End-to-End Object Detection with Transformers - 端到端目标检测的Transformers#xff08;arXiv 2020#xff09; 摘要1. 引言2. 相关工作2.1 集预测2.2 Transformers和并行解码2.3 目标检测 3. DETR模型References 声明#xff1a;此翻译仅为个人学习… 图像 检测 - DETR: End-to-End Object Detection with Transformers - 端到端目标检测的TransformersarXiv 2020 摘要1. 引言2. 相关工作2.1 集预测2.2 Transformers和并行解码2.3 目标检测 3. DETR模型References 声明此翻译仅为个人学习记录 文章信息 标题DETR: End-to-End Object Detection with Transformers (arXiv 2020)作者Nicolas Carion*, Francisco Massa*, Gabriel Synnaeve, Nicolas Usunier, Alexander Kirillov, and Sergey Zagoruyko (* Equal contribution)文章链接https://arxiv.org/pdf/2005.12872.pdf文章代码https://github.com/facebookresearch/detr 推荐亦可参考 图像 处理 - 开源算法集合 摘要 我们提出了一种新的方法将目标检测视为一个直接集预测问题。我们的方法简化了检测流程有效地消除了对许多手工设计的组件的需求如非最大值抑制程序或锚生成这些组件对我们关于任务的先验知识进行了明确编码。新框架称为DEtection TRansformer或DETR其主要组成部分是基于集合的全局损失通过二分匹配强制进行唯一预测以及transformer 编码器-解码器架构。给定一组固定的学习目标查询DETR对目标和全局图像上下文的关系进行推理以直接并行输出最终的预测集。与许多其他现代检测器不同新模型概念简单不需要专门的库。DETR在具有挑战性的COCO目标检测数据集上展示了与完善且高度优化的Faster R-CNN基线相当的准确性和运行时性能。此外DETR可以很容易地推广以统一的方式产生全景分割。我们表明它显著优于竞争基线。训练代码和预训练模型可在https://github.com/facebookresearch/detr. 1. 引言 目标检测的目标是为每个感兴趣的目标预测一组边界框和类别标签。现代检测器通过在一大组提议[37,5]、锚[23]或窗口中心[53,46]上定义代理回归和分类问题以间接的方式解决这一集合预测任务。它们的性能受到崩溃接近重复预测的后处理步骤、锚集的设计以及将目标框分配给锚的启发式方法的显著影响[52]。为了简化这些流水线我们提出了一种直接集预测方法来绕过代理任务。这种端到端的哲学在复杂结构的预测任务如机器翻译或语音识别方面取得了重大进展但在目标检测方面尚未取得重大进展以前的尝试[4316439]要么添加了其他形式的先验知识要么在具有挑战性的基准上与强大的基线相比没有竞争力。本文旨在弥合这一差距。 图1. DETR通过将公共CNN与transformer架构相结合直接预测并行最终检测集。在训练过程中二分匹配将预测唯一地分配给真值框。不匹配的预测应产生“无目标”∅类预测。 我们通过将目标检测视为直接集预测问题来简化训练管道。我们采用了一种基于transformer[47]的编码器-解码器架构这是一种用于序列预测的流行架构。Transformer的自注意力机制显式地对序列中元素之间的所有成对交互进行建模使这些架构特别适合于集合预测的特定约束例如去除重复预测。 我们的DEtection TRansformerDETR见图1一次预测所有目标并使用集损失函数进行端到端训练该函数在预测目标和真值目标之间执行二分匹配。DETR通过丢弃对先验知识进行编码的多个手工设计的组件如空间锚或非最大抑制来简化检测流水线。与大多数现有的检测方法不同DETR不需要任何自定义层因此可以在任何包含标准CNN和transformer类的框架中轻松复制。在我们的工作中我们使用了标准深度学习库中Transformer[47]和ResNet[15]主干的标准实现。 与以前关于直接集预测的大多数工作相比DETR的主要特征是二分匹配损失和transformers与非自回归并行解码的结合[2912108]。相比之下先前的工作侧重于使用RNNs[4341303642]的自回归解码。我们的匹配损失函数唯一地将预测分配给真值目标并且对预测目标的排列是不变的因此我们可以并行发射它们。 我们在最流行的目标检测数据集之一COCO[24]上评估了DETR并与竞争激烈的Faster R-CNN基线[37]进行了比较。Faster R-CNN经过了多次设计迭代自最初发布以来其性能得到了极大的提高。我们的实验表明我们的新模型达到了类似的性能。更准确地说DETR在大型目标上表现出明显更好的性能这一结果可能是由transformer的非局部计算实现的。然而它在小目标上的性能较低。我们预计未来的工作将以FPN[22]开发Faster R-CNN的方式改进这一方面。 DETR的训练设置与标准目标检测器在多个方面不同。新模型需要超长的训练时间表并且受益于transformer中的辅助解码损耗。我们深入探讨了哪些组件对演示的性能至关重要。 DETR的设计理念很容易扩展到更复杂的任务中。在我们的实验中我们表明在预训练的DETR之上训练的简单分割头在全景分割[19]上的性能优于竞争性基线这是一项具有挑战性的像素级识别任务最近越来越受欢迎。 2. 相关工作 我们的工作建立在几个领域的先前工作的基础上用于集合预测的二分匹配损失、基于transformer的编码器-解码器架构、并行解码和目标检测方法。 2.1 集预测 没有规范的深度学习模型可以直接预测集合。基本的集合预测任务是多标签分类例如参见[4033]以获取计算机视觉背景下的参考文献其中基线方法一对一不适用于诸如元素之间存在底层结构即接近相同的框的检测等问题。这些任务的第一个困难是避免近乎重复的情况。大多数当前的检测器使用诸如非最大抑制之类的后处理来解决这个问题但直接集预测是免后处理的。他们需要全局推理方案对所有预测元素之间的交互进行建模以避免冗余。对于恒定大小的集合预测密集全连接网络[9]是足够的但代价高昂。一种通用的方法是使用自回归序列模型如递归神经网络[48]。在所有情况下损失函数都应通过预测的排列保持不变。通常的解决方案是基于匈牙利算法[20]设计损失以找到真值和预测之间的二分匹配。这增强了排列不变性并保证每个目标元素具有唯一匹配。我们遵循二分匹配损失方法。然而与大多数先前的工作相反我们放弃了自回归模型并使用具有并行解码的transformers我们将在下面进行描述。 2.2 Transformers和并行解码 Transformers是由Vaswani等人引入的。[47]作为一种新的基于注意力的机器翻译构建块。注意力机制[2]是聚集来自整个输入序列的信息的神经网络层。Transformers引入了自注意力层类似于非局部神经网络[49]它扫描序列的每个元素并通过聚合整个序列的信息来更新它。基于注意力的模型的主要优点之一是它们的全局计算和完美的内存这使得它们比长序列上的RNN更适合。在自然语言处理、语音处理和计算机视觉的许多问题中Transformers正在取代RNN[827453431]。 Transformers最初用于自回归模型遵循早期的序列到序列模型[44]逐个生成输出令牌。然而在音频[29]、机器翻译[1210]、单词表示学习[8]以及最近的语音识别[6]等领域令人望而却步的推理成本与输出长度成比例且难以批量处理导致了并行序列生成的发展。我们还将transformers和并行解码相结合以在计算成本和执行集合预测所需的全局计算的能力之间进行适当的权衡。 2.3 目标检测 大多数现代目标检测方法都是相对于一些初始猜测进行预测的。两级检测器[37,5]预测框w.r.t.提案而单级方法预测w.r.t.锚[23]或可能的目标中心网格[5346]。最近的工作[52]表明这些系统的最终性能在很大程度上取决于这些初始猜测的确切设置方式。在我们的模型中我们能够去除这种手工制作的过程并通过对输入图像而不是锚的绝对框预测来直接预测检测集从而简化检测过程。 基于集合的损失。几个目标检测器[92535]使用了二分匹配损失。然而在这些早期的深度学习模型中不同预测之间的关系仅用卷积层或全连接层建模手工设计的NMS后处理可以提高其性能。最近的检测器[372353]使用真值和预测之间的非唯一分配规则以及NMS。 可学习的NMS方法[16,4]和关系网络[17]显式地对不同预测之间的关系进行建模。使用直接集合损耗它们不需要任何后处理步骤。然而这些方法采用了额外的手工制作的上下文特征如提议框坐标以有效地对检测之间的关系进行建模同时我们寻找减少模型中编码的先验知识的解决方案。 递归检测器。与我们的方法最接近的是用于目标检测[43]和实例分割[41303642]的端到端集合预测。与我们类似他们使用基于CNN激活的编码器-解码器架构的二分匹配损失来直接生成一组边界框。然而这些方法只在小型数据集上进行了评估而没有对照现代基线进行评估。特别是它们基于自回归模型更准确地说是RNNs因此它们没有利用最近的transformers进行并行解码。 3. DETR模型 两个因素对于检测中的直接集合预测至关重要1集合预测损失它迫使预测框和真值框之间进行唯一匹配2 预测一次通过一组目标并对其关系建模的体系结构。我们在图2中详细描述了我们的体系结构。 图2. DETR使用传统的CNN主干来学习输入图像的2D表示。该模型对其进行平坦化并在将其传递到transformer编码器之前用位置编码对其进行补充。然后transformer解码器将少量固定数量的学习位置嵌入作为输入我们称之为目标查询并额外处理编码器输出。我们将解码器的每个输出嵌入传递到共享前馈网络FFN该网络预测检测类和边界框或“无目标”类。 References Al-Rfou, R., Choe, D., Constant, N., Guo, M., Jones, L.: Character-level language modeling with deeper self-attention. In: AAAI Conference on Artificial Intelligence (2019)Bahdanau, D., Cho, K., Bengio, Y.: Neural machine translation by jointly learning to align and translate. In: ICLR (2015)Bello, I., Zoph, B., Vaswani, A., Shlens, J., Le, Q.V.: Attention augmented convolutional networks. In: ICCV (2019)Bodla, N., Singh, B., Chellappa, R., Davis, L.S.: Soft-NMS improving object detection with one line of code. In: ICCV (2017)Cai, Z., Vasconcelos, N.: Cascade R-CNN: High quality object detection and instance segmentation. PAMI (2019)Chan, W., Saharia, C., Hinton, G., Norouzi, M., Jaitly, N.: Imputer: Sequence modelling via imputation and dynamic programming. arXiv:2002.08926 (2020)Cordonnier, J.B., Loukas, A., Jaggi, M.: On the relationship between self-attention and convolutional layers. In: ICLR (2020)Devlin, J., Chang, M.W., Lee, K., Toutanova, K.: BERT: Pre-training of deep bidirectional transformers for language understanding. In: NAACL-HLT (2019)Erhan, D., Szegedy, C., Toshev, A., Anguelov, D.: Scalable object detection using deep neural networks. In: CVPR (2014)Ghazvininejad, M., Levy, O., Liu, Y., Zettlemoyer, L.: Mask-predict: Parallel decoding of conditional masked language models. arXiv:1904.09324 (2019)Glorot, X., Bengio, Y.: Understanding the difficulty of training deep feedforward neural networks. In: AISTATS (2010)Gu, J., Bradbury, J., Xiong, C., Li, V.O., Socher, R.: Non-autoregressive neural machine translation. In: ICLR (2018)He, K., Girshick, R., Doll´ar, P.: Rethinking imagenet pre-training. In: ICCV (2019)He, K., Gkioxari, G., Doll´ar, P., Girshick, R.B.: Mask R-CNN. In: ICCV (2017)He, K., Zhang, X., Ren, S., Sun, J.: Deep residual learning for image recognition. In: CVPR (2016)Hosang, J.H., Benenson, R., Schiele, B.: Learning non-maximum suppression. In: CVPR (2017)Hu, H., Gu, J., Zhang, Z., Dai, J., Wei, Y.: Relation networks for object detection. In: CVPR (2018)Kirillov, A., Girshick, R., He, K., Doll´ar, P.: Panoptic feature pyramid networks. In: CVPR (2019)Kirillov, A., He, K., Girshick, R., Rother, C., Dollar, P.: Panoptic segmentation. In: CVPR (2019)Kuhn, H.W.: The hungarian method for the assignment problem (1955)Li, Y., Qi, H., Dai, J., Ji, X., Wei, Y.: Fully convolutional instance-aware semantic segmentation. In: CVPR (2017)Lin, T.Y., Doll´ar, P., Girshick, R., He, K., Hariharan, B., Belongie, S.: Feature pyramid networks for object detection. In: CVPR (2017)Lin, T.Y., Goyal, P., Girshick, R.B., He, K., Doll´ar, P.: Focal loss for dense object detection. In: ICCV (2017)Lin, T.Y., Maire, M., Belongie, S., Hays, J., Perona, P., Ramanan, D., Doll´ar, P., Zitnick, C.L.: Microsoft COCO: Common objects in context. In: ECCV (2014)Liu, W., Anguelov, D., Erhan, D., Szegedy, C., Reed, S.E., Fu, C.Y., Berg, A.C.: Ssd: Single shot multibox detector. In: ECCV (2016)Loshchilov, I., Hutter, F.: Decoupled weight decay regularization. In: ICLR (2017)L¨uscher, C., Beck, E., Irie, K., Kitza, M., Michel, W., Zeyer, A., Schl¨uter, R., Ney, H.: Rwth asr systems for librispeech: Hybrid vs attention - w/o data augmentation. arXiv:1905.03072 (2019)Milletari, F., Navab, N., Ahmadi, S.A.: V-net: Fully convolutional neural networks for volumetric medical image segmentation. In: 3DV (2016)Oord, A.v.d., Li, Y., Babuschkin, I., Simonyan, K., Vinyals, O., Kavukcuoglu, K., Driessche, G.v.d., Lockhart, E., Cobo, L.C., Stimberg, F., et al.: Parallel wavenet: Fast high-fidelity speech synthesis. arXiv:1711.10433 (2017)Park, E., Berg, A.C.: Learning to decompose for object detection and instance segmentation. arXiv:1511.06449 (2015)Parmar, N., Vaswani, A., Uszkoreit, J., Kaiser, L., Shazeer, N., Ku, A., Tran, D.: Image transformer. In: ICML (2018)Paszke, A., Gross, S., Massa, F., Lerer, A., Bradbury, J., Chanan, G., Killeen, T., Lin, Z., Gimelshein, N., Antiga, L., Desmaison, A., Kopf, A., Yang, E., DeVito, Z., Raison, M., Tejani, A., Chilamkurthy, S., Steiner, B., Fang, L., Bai, J., Chintala, S.: Pytorch: An imperative style, high-performance deep learning library. In: NeurIPS (2019)Pineda, L., Salvador, A., Drozdzal, M., Romero, A.: Elucidating image-to-set prediction: An analysis of models, losses and datasets. arXiv:1904.05709 (2019)Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., Sutskever, I.: Language models are unsupervised multitask learners (2019)Redmon, J., Divvala, S., Girshick, R., Farhadi, A.: You only look once: Unified, real-time object detection. In: CVPR (2016)Ren, M., Zemel, R.S.: End-to-end instance segmentation with recurrent attention. In: CVPR (2017)Ren, S., He, K., Girshick, R.B., Sun, J.: Faster R-CNN: Towards real-time object detection with region proposal networks. PAMI (2015)Rezatofighi, H., Tsoi, N., Gwak, J., Sadeghian, A., Reid, I., Savarese, S.: Generalized intersection over union. In: CVPR (2019)Rezatofighi, S.H., Kaskman, R., Motlagh, F.T., Shi, Q., Cremers, D., Leal-Taix´e, L., Reid, I.: Deep perm-set net: Learn to predict sets with unknown permutation and cardinality using deep neural networks. arXiv:1805.00613 (2018)Rezatofighi, S.H., Milan, A., Abbasnejad, E., Dick, A., Reid, I., Kaskman, R., Cremers, D., Leal-Taix, l.: Deepsetnet: Predicting sets with deep neural networks. In: ICCV (2017)Romera-Paredes, B., Torr, P.H.S.: Recurrent instance segmentation. In: ECCV (2015)Salvador, A., Bellver, M., Baradad, M., Marqu´es, F., Torres, J., Gir´o, X.: Recurrent neural networks for semantic instance segmentation. arXiv:1712.00617 (2017)Stewart, R.J., Andriluka, M., Ng, A.Y.: End-to-end people detection in crowded scenes. In: CVPR (2015)Sutskever, I., Vinyals, O., Le, Q.V.: Sequence to sequence learning with neural networks. In: NeurIPS (2014)Synnaeve, G., Xu, Q., Kahn, J., Grave, E., Likhomanenko, T., Pratap, V., Sriram, A., Liptchinsky, V., Collobert, R.: End-to-end ASR: from supervised to semi-supervised learning with modern architectures. arXiv:1911.08460 (2019)Tian, Z., Shen, C., Chen, H., He, T.: FCOS: Fully convolutional one-stage object detection. In: ICCV (2019)Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A.N., Kaiser, L., Polosukhin, I.: Attention is all you need. In: NeurIPS (2017)Vinyals, O., Bengio, S., Kudlur, M.: Order matters: Sequence to sequence for sets. In: ICLR (2016)Wang, X., Girshick, R.B., Gupta, A., He, K.: Non-local neural networks. In: CVPR (2018)Wu, Y., Kirillov, A., Massa, F., Lo, W.Y., Girshick, R.: Detectron2. https://github.com/facebookresearch/detectron2 (2019)Xiong, Y., Liao, R., Zhao, H., Hu, R., Bai, M., Yumer, E., Urtasun, R.: Upsnet: A unified panoptic segmentation network. In: CVPR (2019)Zhang, S., Chi, C., Yao, Y., Lei, Z., Li, S.Z.: Bridging the gap between anchor-based and anchor-free detection via adaptive training sample selection. arXiv:1912.02424 (2019)Zhou, X., Wang, D., Kr¨ahenb¨uhl, P.: Objects as points. arXiv:1904.07850 (2019)
http://www.zqtcl.cn/news/129609/

相关文章:

  • 自助建站免费自助建站网站广州企业网站
  • 常德论坛尚一网唐山seo网络推广
  • 网站建设预付流程网站设计风格的关键词
  • 常德网站制作怎么做自己的网页
  • 做的网站为什么图片看不了wordpress循环该分类子分类
  • 源码出售网站怎么做一个产品的网络营销方案
  • 安丘营销型网站建设国外教育网站模板
  • 做网站案例百度小说排行榜前十
  • 东昌网站建设公司上传到网站去的文档乱码
  • 如何制作自己的网站链接教程网络营销seo招聘
  • 网站制作资料收集wordpress资源网模板
  • 随州网站设计开发服务做网站制作步骤
  • 东莞凤岗做网站黄山旅游攻略住宿
  • 网站开发常用插件免费库存管理软件哪个好
  • 河池网站开发工程师招聘网如何做品牌运营与推广
  • 做网站运营难吗零基础网站建设教程
  • 深圳蚂蚁网络网站建设wordpress电影主题
  • 网站域名收费吗搜索引擎不收录网站
  • 海兴网站建设价格wordpress替代软件
  • 做网站哪家服务器好小区物业管理系统
  • 上海推广网站公司网站建设首选
  • 网站建设行业分析报告网站建设视频教程
  • 服装网站建设图企业网站建设开题报告是什么
  • 建设外贸商城网站制作网站建设的中期目标
  • 网站定做地方门户网站带手机版
  • 佛山网站建设哪家评价高系统开发报价清单
  • 东莞道滘网站建设做h游戏视频网站
  • 江西营销网站建设公司网站建设 意义
  • 公司网站怎么自己做织梦品牌集团公司网站模板(精)
  • 西安市高陵区建设局网站产品网站做营销推广