当前位置: 首页 > news >正文

二手房网站建设方案建设工程管理是干嘛的

二手房网站建设方案,建设工程管理是干嘛的,怎么看一家网站是谁做的,商品标题优化这个也是一个补充文#xff0c;前9章基本把该讲的讲了#xff0c;今天这个内容主要是因为Meta出了一个Chameleon#xff0c;这个以后可能会成为LLaMA的一个很好的补充#xff0c;或者说都有可能统一起来#xff0c;叫LLaMA或者Chamleon或者什么别的#xff0c;另外我司把…    这个也是一个补充文前9章基本把该讲的讲了今天这个内容主要是因为Meta出了一个Chameleon这个以后可能会成为LLaMA的一个很好的补充或者说都有可能统一起来叫LLaMA或者Chamleon或者什么别的另外我司把Florence的第二个版本开源了google的paligemma瞬间啥也不是了 Chameleon 5月16日就发了论文昨天才正式开源 论文地址2405.09818 (arxiv.org) github地址facebookresearch/chameleon: Repository for Meta Chameleon, a mixed-modal early-fusion foundation model from FAIR. (github.com) 其实现在多模态的模型特别多为什么拿它出来说事主要原因是它是目前开源世界里面第一个实现和GPTo一样的架构也就是所有的模态共有一套端到端网络但是它似乎没全实现feature deleliver进度上来讲 我们先看一个反面教材LLaVA 也不算反面教材吧市面上大多数的多模态都是这样的这种方式叫后融合。 怎么理解后融合呢 如上图所示是一个实际的LLaVA架构 根据上面图我们一起来定义啥叫后融合 视觉编码器与语言模型分开图中左侧的LLAVA架构将视觉编码器Vision encoder和语言模型的encoderLanguage model 分开显示这表明图像和语言的特征提取是独立进行的。标粗标红 融合在后续步骤进行在视觉编码器处理完图像生成视觉特征ZvZ_v 后这些特征通过投影Projection W得到视觉特征表示HvH_v(升降维和语言模型的token一个维度比如4096)。然后这些视觉特征与语言指令XqX_q被tokenizer给embedding出来的 HqH_q在语言模型的LLaMA里面训练这就叫后融合Late Fusion。 其实还是LLM最后的训练其实还是LLM的训练模式即把把视觉转换的语言维度的token和语言的token都当成语言token本质上还是LLM的训练机制然后你生成的东西其实也只有语言这种任务说白了只能做VQA 那啥叫前融合 其实做的比较早的是Gemini所谓前融合通俗易读点就是我不需要先让每个模态的encoder去提取自己的特征向量然后再拉齐就一套tokenizer干所有的事啥都被我embedding成token也不用比如拿cv的特征图再给转我也不管它是什么输入然后统一进transformer这里面肯定是VITDIT了 Chameleon是同源架构但是比Gemini做的更甚一些因为Gemini的视觉的decoder是跟其他的没啥关系的说白了在视觉部分比如videopicture啥的它还得独立路由到单独的模型生成Chameleon是完全的端到端但是没做完这个版本的模型是不支持的 我是连测带问才知道的所以说你们不能光看论文你得上手啊老铁   讲到这估计大家可能对前融合后融合还是有点理不清那看我下面的截图应该能明白了。 比如对于和Llava架构差不多的phi3-V,你去查它的tokenizer 就是还是text的也只针对text的。 视觉的token实际还是视觉的组件来管理和处理开源大多用clip其实是用里面的vit只不过被一个线性层或者MLP给硬拉到语义token的维度 但是再看看Chameleon的tokenizer一些奇怪的东西就出现了 没错就是它的tokenizer已经不是纯语言的了视觉现在只有图片也是直接被同一个tokenizer来处理的但是干活的时候还得由视觉的encoder来干它用的vq-gan VQGAN的作用 图像编码 VQGAN使用卷积神经网络CNN将输入图像分解成小块patches。 这些小块被进一步编码为一组离散的tokens通过向量量化Vector Quantization将连续的特征映射到预定义的代码簇codebook。 图像生成现在做不了 在生成过程中VQGAN可以将这些离散tokens解码回图像。 结合多模态任务 在多模态任务中如图像-文本联合建模VQGAN可以用来将图像数据表示为离散的tokens这些tokens可以与文本tokens原生就全是token不用硬去拉齐维度一起输入到一个联合模型中进行处理如Transformer架构中。 为什么要这么做呢因为大家知道所有的特征提取以后是有自己的表征空间的后融合比如llava它就是自己玩自己的然后强行拉到一个空间这倒也行也能训练但是我们人类在接触信息的时候是怎样的多模态呢 那肯定是全编全解比如你一边看电视一边聊微信所有模态是一起进到你大脑来处理的你一定有多个encoder比如眼睛耳朵但是你不太可能有多个tokenzier不同的模态天然在人类里面就是在一个表征空间里被表示的也就是前融合。 对于模型来讲在一个表征空间里也以为着进入到Transformer层训练天然能学到不同模态的一些关联信息那效果自然是要比分着来然后硬拉到一个维度好因为每次tensor变形实际上都是折损。 在帮着修了一个VQA的bug以后体验了一下现阶段的进展当然现阶段其实还是原型期多模态也就做到VQA的级别有几点可以说一下。 1- 没用任何现行的推理框架但是真的超级快我挺期待这部分的一些后续信息披露 2- 不支持中文 3- VQA任务表现我个人觉得一般可能也是新模型语料上也没充分准备微调也不够皮卡丘它都不认识 如下面的例子所示同样的任务在同源模型GPT4o上执行简直天差地别当然你可以说它小这个我不反对我也不否认它的方式一定代表多模态的未来。但是它出来的过于高调了宣称出道即和GPT4o的多模态能力平起平坐这个纯扯淡了目前属于是。其实phi3-V目前它也比不了我就是懒得开机器了 当然还有很多具体的训练和模型的设计细节例如文本的表征token这玩意是离散的而图像的表征天生是连续的。 为了支持这些它在具体模型上也做了一些调整一个关键的引入是QK-norm这个到也常见就是进softmax之前的QK值归一化一下这样就防止了不稳定防止梯度爆炸和消失 至于drop-out最后的结论似乎是加不加就那么回事。 这里有个trick在7b的模型下面QK-norm能显著的解决了不稳定但是34b白扯所以又把layer-norm给后撤了 其实这个就是swin Transformer的思想具体来说在transformer模块中使用了后撤LN的策略。Swin transformer规范化策略的优点在于它可以限制前馈模块norm growth而前馈即FFN或者叫MLP模块的norm growth在SwiGLU激活函数的倍增效应下可能会变得非常麻烦。说白了就是给你MLP的时候就后撤步的norm一下这样MLP拿到的值就小好控制。 Chameleon我目前看不完美还得进化不过因为它是第一个把商用多模态的思路引入开源的小模型Meta就故意的总整这事因为小所以玩的人多自然就开源翘楚了这个策略屡试不爽它和LLaMA一样会成为一个开源世界的里程碑这个到是应该按着剧本写的。 下面介绍一下我司新开源的模型Florence-2 如果我没记错1没开源(我说错了的话请纠正我)2突然就开了也莫名其妙简单说它就是比google的paligemma强很多倍的多CV任务的多模态。 什么是多CV任务呢? 其实你们现在玩的这种有一个算一个只能算是VQA任务。就是你问它图是啥它回答一下但是在CV计算机视觉领域这只是一个很小的分支比如你让GPT4o你说你把图给我分割一下然后打框对象检测啥啥的它都干不了。 论文地址2311.06242 (arxiv.org) 我为啥说它牛B呢 它和Chameleon不一样它不是前融合这个理论上来说是减分项     弱点就是只能做图文且不能生成其实chameleon现在也就这个进度     但是     它能做好几个CV任务你能想到的它都能做     然后最大的才0.77b.... 然后它的数据优化流程和反复训练的流程其实某种程度上有点像NV的Nemotron-4 从时间线的角度上来讲是Nemotron-4学它毕竟它是先出的就是没开源 它训练的时候本来就是多任务的prompts恨不得把一张图能干的事都给榨干比如下面的 1-标准VQA 2- Visual Granding 3- Dense Region Caption从这就开始上强度了 4- 开放词随便问的OD比泛化 5- OCR 6- 分割 这些你在CV领域干的活儿它都可以弄 下面对比一下和其他的模型 这个就很明显了不对比别的就对比GPT4-V, florence-2直接把这个实际文字都给撸了下来属于OCRVQA任务一起做了当然GPT-4V的工作也还行但是比如非常有感情的替我给Amelia一个拥抱这种句子都被消融掉了从这个角度讲Florence的任务做的应该是最出色的。 也不是每个VQA任务都能完胜比如这个感觉Florence就有点近视眼 路牌上告诉1/4个mile就出它就没看到。 别的也比不了了和这些多模态只能比VQA,因为别的任务它们也做不了。 然后比如和我们自己的Kosmos-2对比也开源了但是我不讲了我更看好florence-2感兴趣的自己去玩huggingface上都有同样的对象检测明显florence-2更胜一筹。 总结就是从趋势和新势力的角度我觉得chameleon前融合必然是未来以后多模态肯定都是前融合但是你不能光概念好细活儿也得拿的出手另外一个维度就是florence的这种传统CV复杂任务也会介入到多模态生意里面比如你问一个搞自动驾驶的它选florence还是GPT4o他想都不想肯定选florence啊因为这些任务是必须的是和他手头现在的业务高相关的。 总而言之Bye下期见 多模态8 多模态 · 目录 上一篇多模态MLLM都是怎么实现的(9)-时序LLM是怎么个事儿
http://www.zqtcl.cn/news/279794/

相关文章:

  • 企业外贸营销型网站如何写好软文推广
  • 免费建站的网址个人网站建设程序设计
  • 淘宝网站建设违规吗上海大公司
  • 大淘客怎么自己做网站自己开网站能赚钱吗
  • 大型门户网站开发北京网站建设管庄
  • 大连建设工程网站网站建设组织管理怎么写
  • wordpress英文站注册域名需要注意什么
  • 营销型网站的建设重点是什么深圳logo设计公司排名
  • 做网站的用什么软件呢网站排名优化服务公司
  • 网站开发完整视频网站集约化建设较好的城市
  • 网站建设和平面设计应用网站如何做
  • 自己做网站需要多少费用asa8.4 做网站映射
  • 商业网站 模板黑龙江省建设厅安全员考试
  • 网站新备案不能访问室内装修网站模板
  • 工程师报考网站wordpress设置视频图片不显示图片
  • 徐州网站建设公司排名成都住建平台
  • 用来备案企业网站国外免费外贸网站
  • 网页背景做的比较好的网站做一个企业网站价格
  • 免费制图网站县级门户网站建设的报告
  • 北京网站建设网怎么用手机做一个网站
  • 网站建设管理办法关于公司门户网站建设的议案
  • 网站开发入职转正申请书体验好的网站
  • 在线精品课程网站开发网站备案号怎么修改
  • 网站建设 风险百度热搜的含义
  • 怎样创作网站公司做网站 要准备哪些素材
  • 网站上的平面海报怎么做南阳企业做网站
  • 佛山公众平台网站推广多少钱wordpress如何调用分类目录
  • 网站推广应该注意什么信息发布平台推广
  • 官方网站案例做网站私活在哪接
  • 做网站滨州wordpress 不同域名