当前位置: 首页 > news >正文

只做特卖的网站扶风网站建设

只做特卖的网站,扶风网站建设,上海推牛网络科技有限公司,计算机网络实验 做网站的1.研究背景BERT曾被应用在多项NLP任务中#xff0c;并且取得了很好的结果。它通过在大规模开放语料库上进行预训练以获得通用的语言表示#xff0c;然后在特定的下游任务中进行微调#xff0c;吸收特定领域的知识。但这些模型在不同的领域执行知识驱动任务时#xff0c;效果…1.研究背景BERT曾被应用在多项NLP任务中并且取得了很好的结果。它通过在大规模开放语料库上进行预训练以获得通用的语言表示然后在特定的下游任务中进行微调吸收特定领域的知识。但这些模型在不同的领域执行知识驱动任务时效果不佳。为了解决这个问题可以在特定领域的数据集上进行预训练或者在预训练时注入特定的领域知识。但这些方法一般非常耗时且昂贵。有些学者提出将知识图谱KG集成到语言表示LR中为模型配备领域知识提高模型在特定领域任务上的性能同时降低大规模预训练成本。但在知识整合的同时存在两个不可避免的问题1异构嵌入空间HES文本中的词和KG中的词嵌入向量空间不一致2知识噪音KN过多的知识融合会使句子偏离正确的意思。为了解决这些问题文章提出一种基于知识图谱的语言表示模型——K-BERT。K-BERT能够与BERT模型兼容加载任何预先训练好的BERT模型并且通过配置KG可以很容易地将领域知识注入到模型中而不需要预训练。另外该模型引入了软位置和可见矩阵来限制知识的影响以克服知识噪音。2.方法文章详细介绍了K-BERT的实现K-BERT的模型体系结构主要由四个模块组成即知识层、嵌入层、视图层和掩码转换。其总体框架如图1所示图1 K-BERT的模型结构K-BERT模型的每一部分都有着不可或缺的作用。对于输入的句子知识层首先从KG向其注入相关的三元组将原始句子转换为知识丰富的句子树。然后将句子树同时馈送到嵌入层和视觉层然后将其转换为符号级嵌入表示和可视矩阵。可见矩阵用于控制每个符号的可见区域防止由于注入过多的知识而改变原句的意思。2.1 知识层知识层(KL)用于句子知识注入和句子树转换。给定输入句子s{w0w1w2...wn}和知识图谱KKL输出句子树t{w0w1.wi{(ri0wi0)...(rikwik)}...wn}。这个过程可以分为两个步骤知识查询(K-Query)和知识注入(K-Inject)。在K-Query中从K-Query中选出句子s中涉及的所有实体名称来查询其对应的三元组。K-Query可以表示为(1)1其中E{(wiri0wi0).(wirikwik)}是相应三元组的集合。接下来K-Inject通过将E中的三元组注入到它们对应的位置将查询到的E注入到句子s中并生成一个句子树t。在本文中一棵句子树可以有多个分支但其深度固定为1这意味着三元组中的实体名称不会迭代地派生分支。K-Inject可以表示为22.2 嵌入层嵌入层(EL)的功能是将语句树转换为可以馈送到掩码转换器中的嵌入表示。与BERT相似K-BERT的嵌入表示是由符号嵌入、位置嵌入和段嵌入三部分组成不同之处在于K-BERT嵌入层的输入是句子树而不是符号序列。因此如何在保留句子树结构信息的同时将句子树转换成序列是K-BERT的关键。符号嵌入与BERT基本一致不同之处在于语句树中的符号在嵌入操作之前需要重新排列。在重新排列策略中分支中的符号被插入到相应节点而后续的符号则向后移动。经此操作后句子变得不可读丢失了正确的结构信息。但该问题可以通过软位置可视矩阵来解决。BERT输入句子的所有结构信息都包含在位置嵌入中可以将缺失的结构信息重新添加到不可读的重新排列的句子中但句子位置信息会有所改变。要解决这个问题需要给句子树重新设置位置标号。但在设置位置编号时又会发生实际没有联系的词汇因具有相同的软位置标号而出现联系导致句子意思发生改变。这个问题的解决方案是使用掩码-自我注意机制。2.3 视图层视图层是K-BERT和BERT的最大区别也是这种方法如此有效的原因。K-BERT的输入是一棵句子树其中的分支是从KG获得的知识。但它可能导致原句意思的变化即KN问题。在句子树中一个实体的三元组应与其他词汇无关。同时用于分类的[CLS]标签不能绕过主体词汇来获得修饰三元组的信息。为了解决这个问题K-BERT使用可见矩阵M来限制每个符号的可见区域防止不相干词汇相互干扰。可视矩阵可以表示为33其中wi⊖wj表示在同一分支wi⊘wj则不在。i和j是硬位置索引。嵌入层和可视层的工作原理如图2所示图2 句子树转换成嵌入表示和可视矩阵工作过程2.4 掩码转换可视矩阵M包含句子树的结构信息但BERT中的编码器不能接收M作为输入所以我们需要将其修改为Mask-Transformer它可以根据M限制自注意区域。Mask-Transformer是一个由多个掩码-自我注意块组成的堆栈。为了利用M中的句子结构信息来防止错误的语义变化文章提出了一种掩码-自注意它是自我注意的扩展。掩码-自注意表示如(4)。其中WqWk和Wv表示可训练的模型参数hi表示第i个掩码自我注意块dk是比例因子M是可视矩阵。掩码转换的工作原理如图4所示图4 掩码转换是多个掩码自我注意块的堆栈3.实验3.1 数据集K-BERT在12个中国自然语言处理任务上进行微调其中8个是开放领域的4个是特定领域的。文章采用两个预训练语料库WikiZh和WebtextZH三个中文知识图谱CN-DBpedia、HowNet和MedicalKG。在文章中作者将K-BERT和Google BERT和Our BERT模型进行了一个比对以观察它的性能。3.2 实验分析在文章中作者首先比较了KBERT和BERT在八个中文开放领域自然语言处理任务上的性能。这八个任务分别是Book_revire、Chnsenticorp、Shopping、Weibo、XNLI、LCQMC、NLPCC-DBQA和MSRA-NER。上述每个数据集分为三个部分训练、开发和测试。实验结果如表1和表2所示表1 句子分类任务的不同模型在开放领域任务上的结果(ACC%表2 不同模型对NLPCC-DBQA(MRR%)和MSRA-NER(F1%)的结果从表中可以看出使用额外的语料库(WebtextZh)也可以带来性能提升但不如KG显著。作者在两个特定领域的任务Domain QA和Law_QA上评估了K-BERT的性能。实验结果如表3所示表3 特定领域任务的各种模型的结果(%)结果表明K-BERT在特定领域上的具有明显的语言表示优势。参考资料https://www.aaai.org/Papers/AAAI/2020GB/AAAI-LiuW.5594.pdf代码https://github.com/autoliuweijie/K-BERT
http://www.zqtcl.cn/news/274520/

相关文章:

  • 网站页面图片布局如何设计最新热点新闻事件
  • 学网站建设难四会市城乡规划建设局网站
  • 网站源码分享网html代码入门基础
  • 农产品网站开发方案陕西建设网成绩查询
  • 网站效益分析iis添加网站ip地址
  • 宣传海报在什么网站做网站建设的能力
  • 温州网站优化优化课程设置
  • 企业推广网站有哪些做百度推广需要什么条件
  • 如何实现网站的快速排名怎么做网站模板
  • 数据型网站建设wordpress 阅读统计
  • a做爰网站集宁建设局网站
  • 黄山建设网站公司电话wordpress微信分享图
  • 大数据网站网站的备案流程图
  • 如果自己做网站wordpress付款插件
  • 网站建设项目的结论网站开发合同适用印花税
  • 网站建设经验与教训普陀网站建设推广
  • 12306网站是是阿里巴巴做的吗专业建网站设计公司
  • 关于申请网站建设经费的请示网推推荐信
  • 网站建设请款报告网站服务器租用价格
  • 贵州建设网老网站手机网站建设运营方案
  • 网站方案范文唐山自助建站模板
  • 金华网站制作网站建设的功能需求
  • 用iis建立网站口碑营销案例分析
  • 注册网站要求线上设计师与线下设计师的区别
  • 个人备案 网站内容网站备案如何查询
  • 宿州科技网站建设百度网站外链发布平台
  • 织梦移动网站wordpress父文章显示不全
  • 游戏攻略网站怎么做网站开发需求确认书
  • 做高大上分析的网站电商到底干嘛的
  • 物流网站哪个好网络推广就找南昌莫非传媒