旌阳区黄河开发建设网站,厚街镇仿做网站,网站alexa排名,做网站有必要做app吗文 | 明敏#xff08;发自凹非寺#xff09;源 | 量子位多模态模型常见#xff0c;但是基于稀疏化的还是头一个。谷歌带来最新成果LIMoE#xff0c;首次将稀疏化方法用在了图像文本混合模型上。要知道#xff0c;随着大模型参数呈指数级增加#xff0c;训练成本也是一路飙… 文 | 明敏发自凹非寺源 | 量子位多模态模型常见但是基于稀疏化的还是头一个。谷歌带来最新成果LIMoE首次将稀疏化方法用在了图像文本混合模型上。要知道随着大模型参数呈指数级增加训练成本也是一路飙升。所以如何降低训练成本成为了目前学界重点关注的一个问题。谷歌想到的办法不是拼硬件而是从模型本身入手。利用稀疏化的方法让每次输入只需激活部分网络就能完成任务。它们在模型内部设置了很多“专家”每个“专家”只需处理对应部分的输入根据任务情况按需使用“专家”就好。这样一来尽管模型容量很大但是计算成本并没有暴增。而且还不会降低性能。新方法LIMoE零样本学习任务中可是直接超越了CLIP。怪不得网友高呼快分享给我们API让不同“专家”处理不同任务对于深度学习来说能同时处理文本图像任务其实已经不稀奇。不过过去常见的多模态学习方法往往是单个输入就需要激活整个网络。谷歌这次提出的新方法最大亮点就是首次在这一领域采用了稀疏化模型。稀疏化的方法便是无需让整个模型来处理所有的输入。通过对神经网络进行划分它让神经网络也“专业对口”不同的子模型只处理固定类型的任务或数据。但也不是完全割裂开来模型内部仍有可共享的部分。此次基于的模型是MoEMixture-of-Experts layer它被称为专家混合模型。也就是在Transformer架构的基础上加设了“专家层”。它是一个并行的FNN取代了原本的前馈网络。这里的“专家”也就是模型内部的不同子模型。每个子模型专门用于不同的输入。每一层中的专家由门控网络控制该网络根据输入数据激活专家。对于每个标记门控网络选择最合适的专家来处理数据。此次新提出的LIMoE其实就是让MoE能同时处理图像文本。具体来看就是让LIMoE进行对比学习。在利用大量图像-文本对训练时网络内部的图像模型提取图像表示文本模型提取文本表示。针对相同的图像-文本对模型会拉近图像和文本表示的距离。反之对于不同的图像-文本对则会让相应的表示彼此远离。这样一来的直接好处就是能实现零样本学习。比如一张图像的表示更接近文本“狗”的表示那么它就会被归类为狗。这种思路可以扩展到数千种情况。实际上CLIP和ALIGAN采用的都是这个思路它们在ImageNet数据集上的精度分别是76.2%、76.4%。而LIMoE-L/16可以达到78.6% 已经超过了CLIP。未经过预训练的LIMoE H/14则能达到84.1%的精度。而在LIMoE的专家层中谷歌表示还发现了一些有趣的现象。比如在训练设置中图像标记比文本标记要多很多因此所有专家都会在在任务中多少处理些图像。只不过有的会主要处理图像有的主要处理文本或者二者兼具。还有在大多数情况下都会有一个专家来处理所有包含文本表示的图像patch。除了性能上的提升使用稀疏化模型的好处还体现在降低计算成本上。因为“多专家”的模式意味着尽管多设了很多子模型模型容量显著增加但是实际计算成本并没有明显变化。如果一次任务中只使用了一个子模型那它的成本和标准Transformer的差不多。比如LIMoE-H/14总共有5.6B参数但是通过稀疏化它只会使用每个token的675M参数。One More Thing稀疏化模型一直是谷歌深度研究的一个方向已经提出了MoE、GLaM在内的多个模型。这次LIMoE也不是谷歌第一次魔改MoE。去年6月他们提出了V-MoE是一种新型的视觉架构今年已将全部代码开源。参考链接https://ai.googleblog.com/2022/06/limoe-learning-multiple-modalities-with.html后台回复关键词【入群】加入卖萌屋NLP、CV、搜广推与求职讨论群后台回复关键词【顶会】获取ACL、CIKM等各大顶会论文集