当前位置: 首页 > news >正文

asp.net网站制作实例6wordpress

asp.net网站制作实例,6wordpress,京东网站的建设与发展前景,画出网站开发项目流程图参考自李宏毅课程-人类语言处理 二、BERT和它的家族-介绍和微调 1. What is pre-train model 这里所说的pre-train model是输入一串tokens#xff0c;能够输出一串vectors#xff0c;且每个vector可以表示对应的语义的模型#xff0c;这些vectors也被称作为embeddings。以…参考自李宏毅课程-人类语言处理 二、BERT和它的家族-介绍和微调 1. What is pre-train model 这里所说的pre-train model是输入一串tokens能够输出一串vectors且每个vector可以表示对应的语义的模型这些vectors也被称作为embeddings。以前常用的模型有word2vecGlove等这里并没有详细介绍之后需要单独去看由于英文单词太多了只要来一个新单词整个embedding的模型就需要重新train为了解决这个问题有了fasttext。fasttext是针对英文的针对中文的则是输入图片让模型通过图片中文字的偏旁部首去预测出训练时没见过的文字的embedding。这种训练embedding的方式根据语言的不同会有不同的方法。 但是有一个问题如果输入的token是一样的那么每次出来的vector也一样所以希望模型可以在输入某个token的embedding的时候考虑上下文信息这叫做contextualized word embedding。这样的模型基本就是基于LSTM或者self-attention layer去搭建的一个seq2seq的模型如BertMegatronTuring NLG等可以理解为encoder。 为了让模型效果变好所用的模型越来越大参数量越来越多有一些模型压缩方面的技术比如Distill BERTTiny BERTALBERT等这里没有细说。 2. How to fine-tune 将pre-train model应用到各种任务中这里将任务按照输入和输出分类 2.1 Input one sentence 输入只有一个句子时直接输入就行了因为pre-train model也是一个句子的输入。multiple sentences 输入有多个句子时用一个叫做“[SEP]”的分隔符将两个句子拼成一个句子然后再输入。 2.2 Output one class 输入只有一个分类的时候有两种做法一种做法是在输入的开头加“[CLS]”token然后在“[CLS]”对应的输出的embedding后面加一个head也就是比较浅的神经网络可以是一层全连接然后输出想要的类别数量另一种做法是把所有token的输出都输入到一个head当中去然后输出想要的类别数量。 class for each token 当每个token都要做分类的时候那在模型的后面加一个seq2seq的head就可以了。 copy from input 比如当任务是Extraction-based QA时输入有question和document因此加入“[SEP]”分隔符合并成一个序列然后输出是找出document中的哪个token为答案的start哪个为答案的end这个时候就要用两个额外的向量去分别和document中每个token的输出做dot product然后和start向量最相关的token是start token和end向量最相关的token是end token。 general sequence 当希望模型的输出也是一个sequence的时候可以把pre-train model的输出作为输入在后面接一个decoder让decoder去完成输出sequence的步骤这样的坏处是decoder是一个比较大的模型同时也没有进行pre-train。 另一种做法是把pre-train model当作decoder去做这就需要在inout后面加一个类似“[SEP]”的特殊符号然后把符号的输出丢到自定义的head中然后输出一个token然后把这个token当作输入重复这个过程直到输出[EOS]。 2.3 Fine-tune 在训练的时候可以把pre-trained model的weights都固定住只去训练最后自定义加上去的head。也可以直接训练整个模型虽然模型很大但是大部分的weights是与训练过的所以训练起来没有重头训练困难实际经验也是这种方法比上面的方法更好。 如果要用第二种方法不同的tast需要train不同的模型而这样的模型往往非常大这就很浪费计算资源和存储资源所以就有了Adaptor。Adaptor是我们在pretrained-model里加一些layer然后训练的时候就训练这些layer和最后的head这样pretrained model还是不动的。 下图就是一种插入Adaptor的方式。实验证明Adapter可以让模型调很少的参数却达到finetune整个模型的效果Adaptor怎么加是需要考虑的。 2.4 Weighted Features 由于pre-trained model往往很大不同层得到的feature代表的意义也不同所以可以把各层的feature抽出来加权后输入到head加权的weights可以是模型自己去学的。 3. Why fine-tune 那为什么需要fine-tune一方面是trainning loss可以更快的收敛下图对比随机初始化训练和预训练之后训练的training loss随epoch的变化过程。 另一方面是fine-tune得到的模型有更好的泛化能力在同样去找极小值点的时候预训练的模型找到的极小值点附近的区域更加平缓意味着泛化能力更好。
http://www.zqtcl.cn/news/224089/

相关文章:

  • 济南网络免费推广网站四川建设厅官方网站查询
  • 中国建设银行网站首页wordpress安装多个
  • 中国住建厅网站官网怎么建立网站快捷方式
  • 天津协会网站建设怎么用dw做带登陆的网站
  • 南宁做网站服务商苏州网站建设品牌
  • 做平台销售网站上海市普陀区建设规划局网站
  • 网站的积分系统怎么做电影在线观看
  • 成都网站建设方案服务旅游网站建设报价单
  • 京东网址seo排名查询工具
  • 南京制作网站速成班外贸营销信模板
  • 简单网站建设规划方案物联网网站设计
  • 做360网站官网还是百度四川平台网站建设方案
  • 做网站的主题有哪些精品课程网站建设情况
  • 帝国网站开发电商平台搭建
  • 建设工程网站tcwordpress 标题入库
  • 网站开发简直广州网站制作后缀
  • 上海短视频seo优化网站wordpress 构建知识库
  • 做的网站图片不显示2018做网站赚钱不
  • 国内建站平台网站建设是什么科目
  • 响应式个人网站psd建设银行网站联系电话
  • 大型网站开发实战品牌网站建设费用要多少
  • 昆山网站建设昆山html5制作手机端页面
  • 做网站的国标有哪些达州网络推广
  • 站内seo和站外seo区别wordpress演示数据
  • 建设旅游网站财务分析创意设计公司网站
  • 张家港网站优化wordpress调用图片上传
  • 做网站要商标吗房产网站 设计方案
  • 做网站的费用怎么做账客户案例 网站建设
  • 怎么查询网站的备案号城乡建设杂志网站
  • 婚恋网站哪家做的最好北斗导航2022最新版手机版