东莞艺美网站建设,小伙做钓鱼网站 背警方带走,网站与网页区别是什么,做自媒体的素材网站本文首发于AIWalker#xff0c;欢迎关注。 https://arxiv.org/abs/2312.02139 https://github.com/NVlabs/DiffiT
扩散模型以其强大的表达能力和高样本质量在许多领域得到了新的应用。对于样本生成#xff0c;这些模型依赖于通过迭代去噪生成图像的去噪神经网络。然而#…本文首发于AIWalker欢迎关注。 https://arxiv.org/abs/2312.02139 https://github.com/NVlabs/DiffiT
扩散模型以其强大的表达能力和高样本质量在许多领域得到了新的应用。对于样本生成这些模型依赖于通过迭代去噪生成图像的去噪神经网络。然而去噪网络架构的作用并没有得到很好的研究大多数工作都依赖于卷积残差U-Nets。 本文研究了视觉transformer在基于扩散的生成学习中的有效性。本文提出一种新模型称为扩散视觉transformer (DiffiT)由一个具有U形编码器和解码器的混合分层架构组成。本文提出一种新的依赖时间的自注意力模块允许注意力层以有效的方式自适应其在去噪过程的不同阶段的行为。 此外本文还提出了LatentDiffiT由transformer模型和所提出的自注意力层组成用于高分辨率图像生成。结果表明DiffiT在生成高保真图像方面惊人地有效并在各种类条件和无条件合成任务中实现了最先进的(SOTA)基准。在潜空间中DiffiT在ImageNet256数据集上取得了新的SOTA FID分数1.73。 本文方案 上图为本文所提DiffIT整体架构示意图很明显核心是所提DiffiT ResBlock故我们仅对该核心模块进行简要介绍。 上图为DiffiT模块示意图可以描述如下 x ^ s T M S A ( L N ( x s ) , x t ) x s \hat{x}_s TMSA(LN(x_s), x_t) x_s x^sTMSA(LN(xs),xt)xs x s M L P ( L N ( ( ^ x ) s ) ) ( ^ x ) s x_s MLP(LN(\hat(x)_s)) \hat(x)_s xsMLP(LN((^x)s))(^x)s
关于TMSA在每一层我们的transformer块接收{xs}一组标记在其输入中空间上排列在2D网格上。它还接收xt这是表示时间步长的时间标记。通过将位置时间嵌入提供给具有swish激活的小型MLP来获得时间标记[19]。这次令牌被传递到我们的去噪网络中的所有层。本文提出了时间依赖的多头自注意力通过在共享空间中投影特征和时间标记嵌入来捕捉长程空间和时间依赖性。具体来说共享空间中的时间依赖查询q、键k和值v是 通过空间和时间嵌入的线性投影xs和xt via计算 key、query和value都是时间和空间token的线性函数它们可以针对不同的时间步长自适应地修改注意力的行为。 图像空间
DiffIT结构 DiffiT使用对称的u型编码器-解码器架构其中收缩和扩展路径在每个分辨率上通过跳跃连接相互连接。编码器或解码器路径的每个分辨率由L连续的DiffiT块组成其中包含所提出的时间依赖的自注意力模块。在每条路径的开始对于编码器和解码器使用一个卷积层来匹配特征图的数量。此外卷积上采样或下采样层还用于每个分辨率之间的过渡。我们推测这些卷积层的使用嵌入了可以进一步提高性能的归纳图像偏差。在本节的其余部 分我们讨论了DiffiT Transformer块和提出的时间依赖自注意力机制。在构建u型去噪架构时使用所提出的Transformer块作为残差单元。
DiffiT ResBlock 通过将所提出的DiffiT Transformer块 与额外的卷积层相结合定义最终的残差单元: 潜空间
潜扩散模型被证明可以有效地生成高质量的大分辨率图像。在图4中我们展示了隐DiffiT模型的架构。我们首先使用预训练的变分自编码器网络对图像进行编码然后将特征图转换为不重叠的块并投影到新的嵌入空间。与DiT模型[52]类似我们使用视觉transformer没有上采样或下采样层作为潜空间中的去噪网络。此外还利用三通道无分类器指导来提高生成样本的质量。架构的最后一层是一个简单的线性层用于对输出进行解码。 本文实验 DiffiT在CIFAR- 10数据集上取得了最先进的图像生成FID分数1.95 超 过 了EDM [34]和LSGM [69]等 最 先 进 的 扩 散 模 型 。 与 最 近 的 两 个 基 于vit的 扩 散 模 型 相 比 所 提出的DiffiT在CIFAR-10数据集上的FID分数明显优 于U-ViT [7]和GenViT [76]模 型 。 此 外 就FID分 数 而言DiffiT在VP和VE训练配置方面明显优于EDM [34]和ddpm [66]模型。在图5中我们对FFHQ-64数 据集上生成的图像进行了说明。 在ImageNet-256数据集中 潜在DiffiT模型在FID分数方面优于MDT-G [21]、DiTXL/2-G [52]和StyleGAN-XL [61]等竞争方法并设 置了新的SOTA FID分数为1.73。在IS和sFID等其他 指 标 方 面 潜DiffiT模 型 表 现 出 了 有 竞 争 力 的 性 能 从 而 表 明 了 所 提 出 的 时 间 依 赖 自 注 意 力 的 有 效 性 。在ImageNet-512数 据 集 中 隐DiffiT模 型 在FID和Inception分数(IS)方面明显优于DiT-XL/2-G。 尽管StyleGAN-XL [61]在FID和IS方面显示了更好的 性能但众所周知基于gan的模型存在多样性低 的问题这些问题无法被FID分数捕获。这些问题 反映在StyleGAN-XL在准确率和召回率方面的次优 性能上。此外在图6中我们展示了在ImageNet- 256和ImageNet-512数据集上生成的未策划图像的可视 化。潜DiffiT模型能够在不同的类别中生成各种高质量 的图像。