网站空间后台登录,建筑设计网站,手机app编程工具,在家做衣服的网站【论文阅读】MCTformer: 弱监督语义分割的多类令牌转换器 文章目录 【论文阅读】MCTformer: 弱监督语义分割的多类令牌转换器一、介绍二、联系工作三、方法四、实验结果 Multi-class Token Transformer for Weakly Supervised Semantic Segmentation 本文提出了一种新的基于变换…【论文阅读】MCTformer: 弱监督语义分割的多类令牌转换器 文章目录 【论文阅读】MCTformer: 弱监督语义分割的多类令牌转换器一、介绍二、联系工作三、方法四、实验结果 Multi-class Token Transformer for Weakly Supervised Semantic Segmentation 本文提出了一种新的基于变换的框架来学习类特定对象定位映射作为弱监督语义分割(WSSS)的伪标签 可以利用标准视觉转换器中一个类令牌的参与区域来形成与类无关的定位映射我们研究了转换器模型是否也可以通过学习转换器中的多个类令牌来有效地捕获特定于类的注意力
提出了一个多类令牌转换器称为MCTformer它使用多个类令牌来学习类令牌和补丁令牌之间的交互
提出的MCTformer可以成功地从对应于不同token的类到patch关注生成类判别对象定位映射 我们还建议使用从patch -patch转换器注意力中提取的patch级成对亲和度来进一步细化定位图
提出的框架被证明可以完全补充类激活映射(CAM)方法 一、介绍
弱监督语义分割(WSSS)旨在通过弱监督来减轻对像素级真值标签的依赖
利用弱标签生成高质量的伪分割真值标签 图像级标签可以提供简单的弱标签其仅指示某些类的存在或不存在定位信息
来自卷积神经网络CNNs的对象定位图。尽管使用了复杂的CAM扩展策略或多个训练步骤但现有方法在定位对象的完整性和准确性方面仍然表现出有限的性能
视觉转换器ViT作为第一个专门为计算机视觉设计的转换器模型最近在多个视觉任务上取得了性能突破
ViT在大规模图像识别方面取得了最先进的性能这要归功于其强大的远程上下文建模能力
ViT还使用一个额外的cls token来聚合来自整个patch token序列的信息
最近的一项工作DINO揭示了在自监督ViT特征中存在关于图像语义分割的明确信息 在实际工作中我们探究了Class_cls, CNN_cls和Patch_cls的联系最后选择了Class_cls, CNN_cls 从类标记的注意力图中发现语义场景布局
注意力图在无监督分割任务中产生了有希望的结果
但如何将头部与正确的语义类相关联仍不清楚。也就是说这些注意力映射仍然是类不可知的 在之前的Transformer中仅使用一个cls_token红色方块来聚合来自patch_token蓝色方块的信息所提出的MCTformer使用多个类令牌来学习cls_token和patch_token之间的交互。学习的类对不同类标记的注意力进行Patch可以生成类特定的对象定位图 利用Transformer的特定类别注意力是一项挑战
现有的基于转换器的作品有一个共同的问题即仅使用一个cls_token这使得在单个图像上准确定位不同对象具有挑战性 存在的问题
cls_token设计本质上不可避免地从其他对象类别和背景中捕获上下文信息导致相当无歧视和有噪声的对象定位模型容量不足以实现有针对性的判别定位性能 一个简单的想法是利用多个cls_token它将负责学习不同对象类的表示。为此我们提出了一种多类令牌转换器MCTformer其中使用多个类特定令牌来利用类特定转换器的注意力 作用
拥有类特定令牌的目标不能通过简单地增加ViT中cls_token的数量来实现因为这些类令牌仍然没有特定的含义沿着嵌入维度对来自转换器编码器的输出类令牌应用平均池以生成cls_token这些分数由基本事实类标签直接监督学习到的类对不同类的注意力的patch可以直接用作类特定的定位图所学习的patch到patch的注意力可以作为patch级别的成对亲和力所提出的转换器框架完全补充了CAM方法。这导致类标记和补丁标记之间的高度一致性从而显著增强了它们派生的对象定位图的判别能力
贡献
建议利用类特定的转换器注意力进行弱监督语义分割提出了一个有效的转换器框架其中包括一个新的多类令牌转换器MCTformer结合类感知训练策略从类中学习特定于类的定位图以修补不同类令牌的注意力使用patch到patch的注意力作为patch级别的成对亲和力这可以显著细化特定类别的转换器注意力 二、联系工作 大多数现有的WSSS方法依赖于类激活映射来从CNN中提取对象定位图
因此无法为语义分割网络的学习提供足够的监督。为了解决这个问题已经提出了特定的分割损失 SEC损失 CRF损失 对比损失
进从CAM图中获得的伪分割标签上。这些方法可分为以下几类生成高质量的CAM映射。一些方法开发了启发式策略如“隐藏和搜索”[31]和擦除[40]应用于图像[2449]或特征图[1621]以驱动网络学习新的对象模式
子类别和跨图像语义来定位更准确的对象区域 正则化损失来引导网络发现更多的对象区域
通过引入扩张卷积来解决标准图像分类CNN的感受野有限的问题 Refining CAM maps with affinity learning Ahn等人提出了affinity 从原始CAM图的可靠种子中学习相邻像素之间的仿射关系
网络可以预测仿射矩阵以通过随机游动传播CAM映射
分割结果中的置信像素学习了成对亲和网络 直接从分类网络的特征图中学习亲和度以细化CAM图
Xu等人[44]提出了一种跨任务亲和性该亲和性是从弱监督多任务框架中的显著性和分割表示中学习的
我们提出了一种基于Transformer的模型来提取类特定的对象定位图。我们利用Transformer机制中的转换器注意图来生成对象定位图 Transformer
Transformer最初设计用于对NLP领域中长序列的长程依赖性进行建模
如图像分类[10]、显著性检测[27]和语义分割[30]实现了有希望的性能 然后这些标记被转发到多个堆叠的基于自我关注[37]的层中使每个补丁都具有全局感受野
自监督方法应用于ViT并观察到类标记在补丁上的注意力包含关于场景语义布局的信息
TS-CAM使CAM模块适应ViT。然而TS-CAM只利用了ViT的类不可知注意力映射
提出的多类令牌转换器框架被证明比原始ViT更好地补充了CAM机制生成了比TS-CAM更好的对象定位图 三、方法
具体框架 新的纯基于Transformer的框架MCTformer-V1来利用变换器注意力的类特定对象定位图
输入RGB图像首先被分割成不重叠的patch然后被转换成patch标记序列 使用多个cls_token。这些类标记与嵌入patch信息的补丁标记连接以形成转换器编码器的输入标记
cls_token和patch_token。我们对最后一层的输出cls_token应用平均池来生成类分数而不是像传统的转换器那样使用多层感知MLP来进行分类预测 cls_token直接产生的类分数和基本事实类标签之间计算分类损失
聚合来自多个层的注意力图
从patch到patch的注意力中提取patch级别的成对亲和力以进一步细化类到补丁的注意 类特定的定位图被用作种子以生成伪标签来监督分割模型 Multi-class token结构设计
考虑一个输入图像它被分割成N×N个补丁patch标记序列C类标记序列C类标记与补丁标记级联并添加位置嵌入每个编码层由一个多头注意力MHA模块、一个MLP和分别应用于MHA和MLP之前的两个LayerNorm层组成 我们使用标准的自关注层来捕获令牌之间的长程依赖关系。更具体地说我们首先对输入token序列进行归一化 token到token的注意力映射At2t
全局成对注意力映射At2t
每一行表示特定class对所有patch的注意力得分 考虑到较高的层学习更多的高级判别表示而较早的层捕获更多的一般和低级视觉信息
class融合到最后K个变换器编码层的patch注意力 Amct是从所提出的MCFormer-V1的第l个变换器编码层提取的特定于类的变换器注意力。
以生成最终的class特定对象定位映射AmctRC×N×N Class-specific attention refinement
在先前的工作中经常使用成对仿射来细化对象定位图。它通常需要一个额外的网络或额外的层来学习亲和图
我们建议从所提出的MCTformer的patch匹配注意力中提取成对亲和图而无需额外的计算或监督
通过提取patch到patch的注意力Ap2pRM×M来实现的 所提取的亲和度用于进一步细化类特定的变换器注意力 细化的类特定定位图
可以获得更好的对象定位图并提高外观连续性 Class-aware training
与传统的转换器使用来自最后一层的单个cls_token通过MLP执行分类预测相比我们有多个类令牌并且我们需要确保不同的类令牌可以学习不同的类判别信息
平均值集中输出类令牌以生成类分数 我们计算类c的类得分yc与其基本事实标签之间的soft margin loss 我们将CAM模块集成到所提出的多类令牌转换器框架中
我们将其划分为输出类令牌Tout_cls RC×D和输出补丁令牌Tout_pth RN×D
patch标记进行整形并将其转发到具有C个输出通道的卷积层
总损失是分别根据类标记和补丁标记在图像级基本事实标记和类预测之间计算的两个soft margin loss的总和 将PatchCAM和特定于类的转换器注意力相结合
可以从最后一个卷积层提取基于补丁标记的CAM此后称为PatchCAM图
将提取的PatchCAM映射与所提出的类特定变换器注意力映射相结合 通过逐元素乘法运算产生融合的对象定位映射
where ◦ denotes the Hadamard product
类特定的对象定位映射细化。类似于MCTformer-V1中提出的注意力细化机制
我们也可以从MCTformer-V2中提取Patch到Patch的注意力图作为Patch级别的成对亲和度以细化融合的对象定位图 其中CAM方法可以灵活而稳健地适应多标签图像 四、实验结果
数据集:PASCAL VOC 2012和MS COCO 2014 PASCAL VOC
即训练集train、验证集val和测试集每个子集分别包含1464、1449和1456个图像20个对象类和一个用于语义分割任务的背景类10582张图像的增强集以及中的额外数据进行训练 MSCOCO
80个对象类和一个背景类进行语义分割其训练集和验证集分别包含80K和40K图像 只使用了这些数据集的图像级基本事实标签
ImageNet[9]上预训练的DeiT-S主干构建了所提出的MCTformer 具体细节
遵循了中提供的数据扩充和默认训练参数训练图像的大小调整为256×256然后裁剪为224×224在测试时我们使用多尺度测试和超参数的CRF进行后处理