当前位置: 首页 > news >正文

宁夏做网站找谁网站维护的协议

宁夏做网站找谁,网站维护的协议,0453牡丹江信息网租房,天津做网站印标注意力概念 观察事物时#xff0c;之所以能够快速判断一种事物(当然允许判断是错误的)#xff0c;是因为大脑能够很快把注意力放在事物最具有辨识度的部分从而作出判断#xff0c;而并非是从头到尾的观察一遍事物后#xff0c;才能有判断结果。正是基于这样的理论#xf…注意力概念 观察事物时之所以能够快速判断一种事物(当然允许判断是错误的)是因为大脑能够很快把注意力放在事物最具有辨识度的部分从而作出判断而并非是从头到尾的观察一遍事物后才能有判断结果。正是基于这样的理论就产生了注意力机制。 注意力计算规则 需要三个指定的输入Q(query)K(key)V(value)然后通过计算公式得到注意力的结果这个结果代表query在key和value作用下的注意力表示。当输入的QKV时称作自注意力计算规则。 假如有一个问题给出一段文本使用一些关键词对它进行描述为了方便统一正确答案这道题可能预先已经给出了一些关键词作为提示其中这些给出的提示就可以看作是key而整个的文本信息就相当于是queryvalue的含义则更抽象可以比作是看到这段文本信息后脑子里浮现的答案信息。假设第一次看到这段文本后脑子里基本上浮现的信息就只有提示这些信息因此key与value基本是相同的但是随着对问题的深入理解通过思考脑子里想起来的东西原来越多并且能够开始对我们query也就是这段文本提取关键信息进行表示。以上就是注意力作用的过程通过这个过程最终脑子里的value发生了变化根据提示key生成了query的关键词表示方法也就是另外一种特征表示方法。通常key和value一般情况下默认是相同与query是不同的这种是一般的注意力输入形式但有一种特殊情况就是query与key和value相同这种情况我们称为自注意力机制。使用一般注意力机制是使用不同于给定文本的关键词表示它。而自注意力机制需要用给定文本自身来表达自己也就是说需要从给定文本中抽取关键词来表述它相当于对文本自身的一次特征提取。 常见的注意力计算规则 注意力机制 注意力机制是注意力计算规则能够应用的深度学习网络的载体同时包括一些必要的全连接层以及相关张量处理使其与应用网络融为一体。使用自注意力计算规则的注意力机制称为自注意力机制。NLP领域中当前的注意力机制大多数应用于seq2seq架构即编码器和解码器模型。 注意力机制的作用 在解码器端的注意力机制能够根据模型目标有效的聚焦编码器的输出结果当其作为解码器的输入时提升效果。改善以往编码器输出是单一定长张量无法存储过多信息的情况。在编码器端的注意力机制主要解决表征问题相当于特征提取过程得到输入的注意力表示。一般使用自注意力(self-attention)。注意力机制在网络中实现的图形表示 注意力机制实现步骤 第一步根据注意力计算规则对QKV进行相应的计算。第二步根据第一步采用的计算方法如果是拼接方法则需要将Q与第二步的计算结果再进行拼接如果是转置点积一般是自注意力Q与V相同则不需要进行与Q的拼接。第三步最后为了使整个attention机制按照指定尺寸输出使用线性层作用在第二步的结果上做一个线性变换得到最终对Q的注意力表示。 注意力机制原理 注意力机制示意图 Attention机制的工作原理并不复杂可以用下面这张图做一个总结 Attention计算过程 阶段一query 和 key 进行相似度计算得到一个query 和 key 相关性的分值阶段二将这个分值进行归一化(softmax)得到一个注意力的分布阶段三使用注意力分布和 value 进行计算得到一个融合注意力的更好的 value 值 通过注意力来实现机器翻译(NMT) 的任务机器翻译中使用 seq2seq 的架构每个时间步从词典里生成一个翻译的结果如图 在没有注意力之前每次都是根据 Encoder 部分的输出结果来进行生成提出注意力后就是想在生成翻译结果时并不是看 Encoder 中所有的输出结果而是先来看看想生成的这部分和哪些单词可能关系会比较大关系大的多借鉴些关系小的少借鉴些。 这里为了生成单词把 Decoder 部分输入后得到的向量作为 query把 Encoder 部分每个单词的向量作为 key。首先把 query 和 每一个单词进行点乘scorequery⋅key得到相关性的分值有了这些分值后对这些分值做一个softmax得到一个注意力的分布有了这个注意力就可以用它和 Encoder 的输出值 (value) 进行相乘得到一个加权求和后的值这个值就包含注意力的表示用它来预测要生成的词。 Attention计算逻辑 query 和 key 进行相似度计算得到一个query 和 key 相关性的分值将这个分值进行归一化(softmax)得到一个注意力的分布使用注意力分布和 value 进行计算得到一个融合注意力的更好的 value 值 有无attention模型对比 无attention机制的模型 文本处理领域的Encoder-Decoder框架可以这么直观地去理解可以把它看作适合处理由一个句子或篇章生成另外一个句子或篇章的通用处理模型。对于句子对目标是给定输入句子Source期待通过Encoder-Decoder框架来生成目标句子Target。Source和Target可以是同一种语言也可以是两种不同的语言。而Source和Target分别由各自的单词序列构成Source〈X1,X2⋯Xm〉Target〈y1,y2⋯yn〉encoder顾名思义就是对输入句子Source进行编码将输入句子通过非线性变换转化为中间语义表示CCF(X1,X2⋯Xm)对于解码器Decoder来说其任务是根据句子Source的中间语义表示C和之前已经生成的历史信息y_1y_2…y_i-1来生成i时刻要生成的单词y_iyiG(C,y1,y2⋯yi−1)上述图中展示的Encoder-Decoder框架是没有体现出“注意力模型”的所以可以把它看作是注意力不集中的分心模型。为什么说它注意力不集中呢请观察下目标句子Target中每个单词的生成过程如下y1f(C)y2f(C,y1)y3f(C,y1,y2)其中f是Decoder的非线性变换函数。从这里可以看出在生成目标句子的单词时不论生成哪个单词它们使用的输入句子Source的语义编码C都是一样的没有任何区别。每个yi都依次这么产生那么看起来就是整个系统根据输入句子Source生成了目标句子Target。如果Source是中文句子Target是英文句子那么这就是解决机器翻译问题的Encoder-Decoder框架如果Source是一篇文章Target是概括性的几句描述语句那么这是文本摘要的Encoder-Decoder框架如果Source是一句问句Target是一句回答那么这是问答系统或者对话机器人的Encoder-Decoder框架。由此可见在文本处理领域Encoder-Decoder的应用领域相当广泛。问题点是语义编码C是由句子Source的每个单词经过Encoder 编码产生的这意味着不论是生成哪个单词还是其实句子Source中任意单词对生成某个目标单词yi来说影响力都是相同的这是为何说这个模型没有体现出注意力的缘由。这类似于人类看到眼前的画面但是眼中却没有注意焦点一样。 有attention机制的模型 如果拿机器翻译来解释这个分心模型的Encoder-Decoder框架更好理解比如输入的是英文句子Tom chase JerryEncoder-Decoder框架逐步生成中文单词“汤姆”“追逐”“杰瑞”。在翻译“杰瑞”这个中文单词的时候分心模型里面的每个英文单词对于翻译目标单词“杰瑞”贡献是相同的很明显这里不太合理显然“Jerry”对于翻译成“杰瑞”更重要但是分心模型是无法体现这一点的这就是为何说它没有引入注意力的原因。没有引入注意力的模型在输入句子比较短的时候问题不大但是如果输入句子比较长此时所有语义完全通过一个中间语义向量来表示单词自身的信息已经消失可想而知会丢失很多细节信息这也是为何要引入注意力模型的重要原因。如果引入Attention模型的话应该在翻译“杰瑞”的时候体现出英文单词对于翻译当前中文单词不同的影响程度比如给出类似下面一个概率分布值Tom,0.3(Chase,0.2)(Jerry,0.5)。每个英文单词的概率代表了翻译当前单词“杰瑞”时注意力分配模型分配给不同英文单词的注意力大小。这对于正确翻译目标语单词肯定是有帮助的因为引入了新的信息。目标句子中的每个单词都应该学会其对应的源语句子中单词的注意力分配概率信息。这意味着在生成每个单词的时候原先都是相同的中间语义表示C会被替换成根据当前生成单词而不断变化的。理解Attention模型的关键就是这里即由固定的中间语义表示C换成了根据当前输出单词来调整成加入注意力模型的变化的。增加了注意力模型的Encoder-Decoder框架如下图即生成目标句子单词的过程成了下面的形式y1f1(C1)y2f1(C2,y1)y3f1(C3,y1,y2)而每个Ci可能对应着不同的源语句子单词的注意力分配概率分布比如对于上面的英汉翻译来说其对应的信息可能如下f2函数代表Encoder对输入英文单词的某种变换函数比如如果Encoder是用的RNN模型的话这个f2函数的结果往往是某个时刻输入后隐层节点的状态值g代表Encoder根据单词的中间表示合成整个句子中间语义表示的变换函数一般的做法中g函数就是对构成元素加权求和即下列公式Lx代表输入句子source的长度, a_ij代表在Target输出第i个单词时source输入句子中的第j个单词的注意力分配系数, 而hj则是source输入句子中第j个单词的语义编码, 假设Ci下标i就是上面例子所说的汤姆, 那么Lx就是3, h1f(Tom), h2f(Chase),h3f(jerry)分别输入句子每个单词的语义编码, 对应的注意力模型权值则分别是0.6, 0.2, 0.2, 所以g函数本质上就是加权求和函数, 如果形象表示的话, 翻译中文单词汤姆的时候, 数学公式对应的中间语义表示Ci的形成过程类似下图:
http://www.zqtcl.cn/news/426844/

相关文章:

  • eclipse sdk做网站小程序开发报价明细
  • 网站开发源码售卖合同百度广告投诉电话
  • wordpress读法鄂州seo
  • 网站建设方案的写作方法媒体发稿推广
  • 免费的网站空间注册空壳公司判几年
  • 网站怎么运营推广达美网站建设
  • 江苏建设人才网网站中国最新时事新闻
  • 网站建立时间毕节地seo
  • 央企网站建设意义长沙网约车
  • 广告联盟怎么建设网站做贸易 公司网站放哪里
  • 北京建设局网站首页开发游戏用什么软件
  • 做淘宝客网站能接广告吗网站悬浮二维码
  • 重庆自助建站模板网站建设juxinghulian
  • 优惠券网站怎么搭建宝安中心区规划
  • 网站建设中怎么添加源码会计常用的三个软件
  • vk汉化网站谁做的购物网站设计公司
  • 门户网站建设平台建设招标项目常挂网站有哪些
  • 公司海外网站建设龙海市城乡规划建设局网站
  • 温州哪里做网站设计seo报名在线咨询
  • 四川住房和城乡建设厅进不去网站网站专题方案
  • 企业网站维护服务做网站设计都需要什么软件
  • jsp电商网站开发教程盐城网站建设制作
  • 企业解决方案网站做企业官网多少钱
  • 宁波网站建设哪家比较好怎麽做网站
  • 诸塈市建设局网站做移动网站开发
  • 南京建站公司网站网站视频源码地址
  • 德阳建设局网站做公众号首图的网站
  • 南阳网站优化渠道山西太原最新消息
  • 发布做网站需求qq群centos wordpress 建站教程
  • 东阳网站建设yw126南京网站改版