当前位置: 首页 > news >正文

90设计官方网站国外seo教程

90设计官方网站,国外seo教程,软件下载的网站,做网页的软件有什么本文转载自公众号#xff1a;知识工场。罗康琦#xff0c;上海交通大学计算机系2019届博士#xff0c;研究方向为自然语义理解和知识图谱。2012年获得华中科技大学软件工程学士学位#xff0c;现就职于京东数据科学实验室#xff08;Data Science Lab#xff09;。他曾在… 本文转载自公众号知识工场。           罗康琦上海交通大学计算机系2019届博士研究方向为自然语义理解和知识图谱。2012年获得华中科技大学软件工程学士学位现就职于京东数据科学实验室Data Science Lab。他曾在AAAIIJCAIEMNLP等国际顶级会议上发表多篇论文。摘ABSTRACT要自然语言是人类进行信息交流和知识保存的重要工具同时也是人机交互过程中最主要的形式。因此让机器实现对自然语言的理解是现阶段人工智能的重要发展方向同时也是学术界的热门研究课题。自然界中存在的不同事物以及事物之间的联系已是海量级别随着互联网中以维基百科、IMDB等数据库为首的结构化信息的大量积累用于组织和维护开放领域中海量知识的大规模结构化知识库应运而生。它们以标准化的符号存储了千万以上的实体、以及十亿以上实体之间具有的关系成为了语义表达 的有效载体同时也引出了一系列基于知识库的自然语言理解研究。因此本文针对描述客观事实的自然语言文本利用知识库实现多个维度的语义理解。 根据语义所体现的不同层次本文从实体、关系和句子这三个层面研究自然语言理解问题。实体是语义中不可再分的元素多个实体由关系互相连接构成基本事实而句子往往包含着多个关系具有更加复杂的整体语义。具体而言实体层面的理解体现为直接匹配将文本中代表实体的短语链接至知识库中的特定实体关系层面的理解体现为结构匹配将自然语言关系转换为由知识库关系谓词所构建的特定语义结构句子层面的理解则对单一关系的结构匹配进行深入扩展对于问句而言还体现为推理匹配即根据语义结构从知识库中寻找问句的正确答案。对于这些粒度的自然语言理解问题需要使用不同的方法进行语义建模。 对于实体理解问题其核心为计算实体短语的上下文信息与候选知识库实体间的匹配程度。经典的实体链接任务具有以下特点候选实体数量庞大实体短语普遍存在的一词多义性以及候选实体之间存在相互依赖关系。本文中我们关注对表格文本进行跨语言的实体链接任务除了上述特点以外表格文本所具有的半结构性以及文本和知识库由不同的语言所描述这给此任务带来了新的挑战。为此我们提出了基于神经网络和跨语言词向量的链接模型其优势在于降低翻译过程带来的信息损失学习表格行列方向的上下文和一致性特征并通过联合训练框架提升整体链接质量。在跨语言和单语言两个场景上的实验表明我们的模型有效捕捉表格中实体之间的特殊联系同时在跨语言场景中具有稳定而良好的效果。 对于关系理解问题其核心为用知识库中的结构描述自然语言中一个二元关系的语义。该问题主要具有以下两个特点首先自然语言关系同样存在多义性其次关系和知识库中的谓词存在语义间隔难以实现简单的一一对应。基于这两个特点我们对自然语言关系进行了两个粒度的语义建模。粗粒度的建模聚焦于关系的多义性我们通过对知识库构建更加丰富的类型层次结构挖掘一个二元关系的主语和宾语所具有的不同类型搭配实验结果表明我们的模型效果优于传统的选择偏好模型。细粒度的建模旨在利用知识库实现对关系语义的精确表达我们致力于使用人类能理解的图结构描述关系语义提出了基于规则推导的模式图推理模型以挖掘关系可能的复杂结构表示并将其运用于知识库补全任务。实验结果显示我们的模式图推理模型不仅具有高度可解释性而且效果优于其它规则推导模型和新兴的知识库向量模型。 对于问句理解问题我们着眼于基于知识库的自动问答任务即在知识库中寻找代表答案的实体集合。由于问句包含了未知答案与其它实体的一个甚至多个关系其语义变得更加复杂的同时带来了如下挑战如何描述问句的复杂语义以及如何有效度量问句和语义结构之间的相似度。基于深度学习的语义匹配模型得到了广泛的研究但这些模型所适用的语义结构存在限制对复杂问题的回答存在瓶颈。为此我们提出了针对复杂问题的的深度学习语义匹配模型。该模型沿用关系理解中的图结构表示首先生成问句可能对应的候选查询图然后利用深度神经网络学习这些查询结构的整体语义表示以此捕捉问句中不同语义成分的有机结合。实验结果表明基于复杂查询图的深度学习模型在多个复杂问题和简单问题数据集上都具有良好的性能。综上所述本文从实体、关系、问句三个粒度出发研究自然语言和知识库之间的语义理解与匹配问题。在实体理解中我们提出了基于神经网络、跨语言词向量以及联合训练的链接模型并用于解决跨语言场景中对表格文本进行的实体链接问题。对关系和问句的语义理解我们始终贯彻语义建模的可解释性使用主宾语类型搭配描述关系具有的多义性以及使用基于知识库的图结构描述关系或问句的精确语义。对于自动问答任务我们提出的深度学习模型实现了对复杂图结构的整体建模得以充分体现其特征学习能力更有效地度量问句与复杂结构的语义匹配程度。最后希望本文的一系列工作能够对该领域今后的学术研究有所帮助。 第 1 章  引言本文主要的研究对象是自然语言中的单词、短语以及句子。为了使机器可以像人类一样理解一个句子背后的含义而不是仅仅停留在识别字面上的不同词汇我们需要让机器挖掘出句子中的两类信息即句子里的实体人物、地点、组织、事件等以及实体之间的关系。考虑到自然语言描述方式的多样性我们需要使用标准化的数据库作为语义理解的载体其包含自然界中所有已知的实体以及它们之间存在的关系这样的结构化数据库被称为知识库。本文研究的问题就是将自然语言中的实体、关系以及句子的语义映射到知识库的过程。1.1 研究背景 人类的进化总是伴随着知识的不断积累。传统的知识存储媒介为纸质书籍随着互联网的发展以及分布式存储系统的成熟越来越多人类知识以电子文档的形式进行存储。截至2018年6月Google搜索引擎已索引大约470亿个网页考虑到大量未被索引的网页以及未被电子归档的书籍资料人类所拥有的知识远不止统计数据所显示的规模。并且随着新事件的发生新的知识也还在不断涌入。身处信息化时代人类和计算 机的交互变得频繁且交互方式呈现多样化。而在这其中自然语言一直是最重要的交互方式主要体现为文本和语音的形式与人类之间的正常交流最为接近。人工智能成为当今科研的热门方向由于计算机已经拥有海量的非结构化文本数据因此人类期望智能化的机器能够感知并掌握人类的知识从而更好地与人类进行自然语言交互。科幻电影中经常安排了这样的机器人角色回答人类的提问分析人类的情感进行持续的聊天对话等等。这些诉求支撑了自然语言处理领域的蓬勃发展。自然语言理解是人工智能的一个重要分支。为了衡量机器在自然语言上的智能化水平早在 1950 年英国科学家阿兰·图灵就提出了著名的思想实验 “图灵测试” 即让机器作为被测试者仅通过文本与人类测试者对话并说服人类自己是人而不是机器。 若机器通过了图灵测试则意味着其智能化已达到接近人类的水平。图灵测试属于开放领域的通用对话场景目前人工智能水平还远远不能达到这样的高度通过含糊其辞的策略进行对话可以做到欺骗人类测试者但这并非真正理解对话含义。 之所以机器难以理解人类的语言是因为自然语言本身具有很高的复杂性主要体现为两个方面。一方面自然语言中的不同词汇和语义之间不具有一对一关系。人类语言并非遵循某种确定的规则产生而是随着时间在不停演变例如 “苹果” 一词原本仅指代一种水果而苹果公司的出现使得自然语言文本中的“苹果”有了明显的歧义。可见词汇和语义的对应来自约定俗成并不需要满足严谨的区分度。这使得同义词和一 词多义成为了自然语言中的普遍现象。另一方面词汇的排列顺序也在影响着语义。自然语言中存在着层次关系多个词汇组成短语多个短语组成句子等等。组合而成的语义并不等于各个部分的简单叠加例如“深度学习”与“学习深度”两个短语具有较大的语义差别。 人工智能离完美的语义理解还有很长的距离现阶段也很难设计一套语言理解系统使其适用于各种不同的自然语言场景。在不同类型的文本中描述客观事实的自然语言文本数量庞大以维基百科为代表的语料库凝结了人类在各种领域所拥有的知识。与此同时相比于带有主观信息的句子客观事实所具有的语义更加明确不受个人感情色彩的影响因此能够更加准确地评判机器的理解能力好坏。鉴于以上两点原因如何让机器更好地理解客观事实紧密相关的自然语言信息成为了我们的研究重心。对于机器而言怎样才算理解自然语言中的客观事实我们以例句“苹果于1997年收购了 NeXT 公司乔布斯回归并担任临时 CEO。” 进行阐述这段文字讲述了与苹果公司相关的一些客观事实。机器理解的前提在于能从非结构化的文本中抽取出语义信息。计算机对它的信息抽取主要包含以下两个层次。 浅层次的抽取体现在识别句子描述的是关于哪些事物的客观事实不仅需要找出代表它们的短语而且要正确对应到客观存在的事物。例如识别出短语 “苹果” 指的是苹果公司而不是水果。通常需要识别的事物为命名实体即具体的人名、地名、组织名等等有时也包括一些抽象概念比如 “森林” 、“CEO” 、“物理学家” 等等。我们将这些客观存在的具体或抽象事物统称为实体。 更深层的抽取在于识别不同实体之间具有怎样的关系。例如苹果和 NeXT 之间存在着收购关系苹果和乔布斯之间存在任命关系等。在一个句子中描述两个实体之间关系通常会采用主谓宾的形式也存在着其它形式主系表介宾结构等。为了方便论述我们将联系两个实体的二元关系表示为(主语谓语宾语)三元组的形式其中关系在三元组中充当谓语成分主语和宾语则是关系的两个参数实体。判断一个人的智力高低不仅在于他见过多少实体或了解多少关系而且在于能否将已知的事实在大脑中进行整合为知识从而能够举一反三在遇到问题时寻找出和问题匹配的事实对面对复杂问题的情况还能结合多个事实进行推理回答。问句 “ NeXT 公司被谁收购”可以直接与例句中的关系匹配而要回答“ NeXT 公司被收购时美国总统是谁” 则需要一定的推理能力。对于机器而言这样的自动问答任务既是人机交互中的重要场景同时也是衡量句子语义理解是否智能化的有力参照。综上所述针对以客观事实为主的自然语言理解我们从实体、关系、句子的语义理解这三个角度出发展开一系列研究。它们的共同点是需要一种手段来整合并维护 人类的客观知识包括实体、概念、类型以及联系它们的关系等。计算机虽然存储了海量文本但杂乱的非结构化文本显然无法胜任。 信息抽取技术直接针对非结构化文本从中提炼出有价值的客观事实组成三元组形式(  , relation , )本文中称之为关系三元组或关系实例。其中  分别代表关系 relation 的主语和宾语。例如可以从句子“ Mozart was born in Salzburg , but moved to Vienna in 1781 ”中抽取出两个三元组( Mozart , was born in , Salzburg )以及( Mozart , moved to, Vienna )。早期的信息抽取主要针对特定领域的文本数据而近年来提出的开放领域信息抽取 Open Information ExtractionOpenIE 系统[1-4]则从不限定领域的海量文本中提取不同的二元关系。然而关系三元组中的每一个成分为字符串同义词和一词多义现象依然存在。为了消除歧义计算机需要通过更加规范的方式表示不同的实体、关系和具体的三元组而不是只停留在字符串层面。 对于实体的表示维基百科是一个优秀的载体英文维基百科具有一千万以上的实体页面同时实体命名遵循特定规则利用括号信息区分名字相同的实体。同时维基百科还维护了分类信息 Category 具有相似特点的实体会被归为同一分类。普林斯顿大学设计的 WordNet [5] 数据库更加关注概念上的区分其中同义词集 Synset 是用来表示概念的基本单位具有多义的单词或词组指向多个同义词集而每个同义词 集由一系列近义词构成并配有简短文字解释概念词义并且同义词集之间包含着丰富的上下位关系。在关系方面以 PropBank [6] 为代表的数据集以动词分析为主对它们的词义进行了归类。与 WordNet 类似PropBank 使用同义动词集作为词义的基本单位 并且对动词的参数在语境中所扮演的角色进行标记以此表示这些同义动词的用法因此PropBank 常用于语义角色标注任务中。 以上的数据集除维基百科以外其余都还停留在单独的实体、概念、关系层面没有维护实体的属性值以及实体之间的具体关系。维基百科页面中存在大量具有特定模板的信息表格 Infobox 以半结构化的形式描述了实体的属性以及和其它实体的关系。由于维基百科面向人类读者半结构化信息较难直接被机器理解。为此一系列研究工作旨在将维基百科中的半结构化知识进行组织形成的结构化数据库包含了与实体相关的大量事实我们称之为知识库Knowledge Base或知识图谱Knowledge Graph。具有代表性的知识库包括 DBPedia[7]YAGO[8] 和 Freebase[9]它们皆诞生于 2007 年。DBPedia的构建过程基于对维基中的信息表格、页面分类、外部链接等半结构化信息进行自动抽取可以看作是最纯粹的结构化维基百科YAGO 的主要信息同样来自对 Infobox 内容的自动抽取同时将页面分类信息与 WordNet 严谨的概念层次关系进行融合构建出代表实体类型的层次关系由 MetaWeb 公司开发的 Freebase 集成了维基百 科、IMDb 、MusicBrainz 等多个数据库的知识并提供接口允许用户对 Freebase 的结构化内容进行编辑或添加新的知识因此相比其余知识库Freebase 具有更大的规模。这些结构化知识库的共同点在于使用资源描述框架Resource Description Framework每一条知识都由SPO 三元组表示即( subject , predicate , object )形式其中 subject 和 object 为知识库中的节点代表着不同的实体、类型或属性值predicate 为连接不同节点的边代表实体间的关系或实体的属性统称为谓词。在知识库中不同的节点和边具有独立的编号因此不具有歧义。为了与 OpenIE 的关系三元组区分我们将知识库里的 SPO 结构称为事实三元组。这些知识库内的所有事实三元组构成了庞大的图结构即“知识图谱’’名称的由来。由于上述知识库结构相似研究方法具有普适性因此我们的工作主要基于资源最丰富的 Freebase包含至少四千万个不同实体三千种以上的常用类型六千种以上的常用谓词以及十亿以上的事实三元组。按功能划分Freebase 中的事实三元组可归为三类描述实体和类型间层次结构的 (实体, IsA , 类型) 和少量 (类型, subTypeOf , 类型) 三元组描述实体间的关系的 (实体, 关系, 实体) 三元组描述实体自身属性的 (实体, 属性, 属性值) 三元组其中属性值为整数、浮点数、时间或字符串。Freebase 的一个缩略图如图1–1所示不同的实体、类型、谓词都有独立的编号例如谓词编号 type.object.type 代表 IsA 关系type.object.name 代表名称属性。同时它们都具有唯一的名称属性值部分实体还具有多个别名属性common.topic.alias值。例如实体 m.02_286 的名称为“ New York City ”具有别名“ The Big Apple ”、“ Empire City ”等谓词 location.location.contained_by 名称为“Contained By”描述了地点实体间的包含关系。Freebase 支持使用 SPARQL 语句进行结构化查询以类似 SQL 的语法从图结构知识库中筛选出满足查询条件的实体。 图1–1 Freebase缩略图。 接下来我们将关注在实体、关系、句子这三个递进层面上以知识库作为语义载体的一些自然语言理解问题。 首先实体层面的语义理解体现为实体链接任务即从自然语言文本中寻找出代表实体的短语并匹配到知识库中的特定实体。如同维基百科编辑者在页面中会添加一些超链接文本并指向其它实体页面使得读者可以快速了解与当前页面相关的实体信息自动化的实体链接可以应用于开放领域的自然语言文本从而实现消歧义的目标。文本输入可以是非结构化的文本也可以是半结构化形式例如互联网中存在的表格。 图1–2展示了维基百科中关于赛车的一个页面其中纯文本和表格中的内容均被添加了超链接指向了特定的车手、车队等实体页面。图1–2 维基百科中的实体与表格链接。 其次对于关系层面的语义理解一个传统任务为关系分类任务给定包含两个实体的句子将它们之间的关系归类至预定义的关系类别中。然而关系分类任务较难扩展到开放领域一方面关系类别增多的同时任务数据集的标注代价显著提升另一方面不同于实体匹配知识库谓词和自然语言关系可能存在一定偏差难以直接分类。在这样的前提下关系理解的实质在于如何利用知识库的已有谓词信息学习目标关系语义。这引出了知识库补全 Knowledge Base Completion任务由于知识库中的事实可能存在缺失对于其中的目标谓词能否推理出它和其它谓词之间的联系从而自动添加新的事实。例如知识库中某人的国籍缺失那么可以根据其出生地所在的国家进行推测。由于知识库中的事实三元组和自然语言的关系三元组具有类似形式因此目标谓词可以从知识库扩展到自然语言中。 最后对于句子的语义理解为了能充分利用知识库的信息我们关注描述客观事实的问句通过自动问答任务衡量其语义理解能力。自动问答具有广泛的应用场景搜索引擎便是其中之一。传统的搜索引擎工作方式依靠信息抽取相关算法比较用户查询与网页的相似度主要利用词级别的共现模型如 TF-IDF [10]或词级别的语义匹配模型如 LSI [11]pLSA [12] 等。但对于用户输入的复杂问题词级别的匹配难以直接定位到用户想要的答案或网页。更加智能化的搜索引擎则尝试对问题进行推理并根据已有的知识库将答案定位至已知的实体中。Google 建立了以 Freebase 为基础的知识库Google Knowledge Graph当用户搜索一些名词时如图1–3中用户搜索“george w bush” 结果页面右侧会显示实体的信息框包括其属性以及与其关联的其它实体 等。而如图1–4所示当用户输入较为复杂的问题 “ who was president of US when beijing olympics was held ”搜索引擎能在结果页面上方显示出自动回答的结果。对比下方的传统页面搜索结果可见精确返回答案能大大提升查询过程的用户体验。 图1–3 搜索结果页面的右侧显示了当前实体的信息框。 图1–4 搜索引擎精确返回复杂问题的答案。实体、关系、问句的语义理解研究之间存在着紧密的内在关系。作为自然语言理解的最底层实体理解是其余两个任务的基础它为关系理解提供了消歧义的三元组也为问句理解划定了大致的语义范围。而问句中通常包括一至多个关系因此问句理解可以看做关系理解的扩展即在问句中寻找疑问词和多个已链接实体间存在的不同语义。1.2 研究现状 上一节介绍了本文关心的语义理解问题本节中我们延续实体、关系、问句语义理解这三部分回顾已有的一些相关工作。 实体链接的研究开始较早Mihalcea 等人[13] 于2007年的研究是以维基百科为载体进行链接的鼻祖工作。对自然语言文本进行实体链接主要分为两个步骤挖掘所有代表实体的短语以及将短语映射至知识库中的特定实体。短语挖掘可以通过字符串模糊匹配的方式进行收集以保证较高的召回率。之后的映射步骤则是实体链接模型的重点为了实现消歧义需要利用短语所在文本的上下文特征以及多个短语所映射的实体之间的关联程度对于表格形式的文本输入行列间实体所具有的特性也不可忽略。根据以上观察以特征工程为核心的机器学习模型被运用于此涵盖的特征主要包括基于维基内部超链接统计的先验概率基于 TF-IDF 模型[14]的短语和实体的上下文相似度基于 PMI [15]、WLN [16]等以维基共现频率衡量的不同实体间的相关度等等。考虑到特征设计耗费人力且与特定任务高度相关更新的工作对基于深度学习的实体链接模型进行了研究模型依赖神经网络建立实体和短语上下文的特征表达并计算向量表达之间的相似度衡量短语和实体的匹配程度。以文献[17]为代表对于输入文本中的短语和维基百科中的实体模型可以关注不同粒度的上下文利用卷积神经网络或循环神经网络对文本进行建模。同时模型可以学习维基百科或知识库中实体分类、类型等信息的向量表达以此丰富实体的语义特征例如文献[18-20]。此外若文本和知识库的语言不同则为跨语言场景的实体链接。通过翻译工具可以转化为单语言的实体链接但受制于翻译步骤的准确率因此主要的模型使用了跨语言的词向量技术[21]将不同语言下的单词映射至同一连续语义空间。 关系语义学习的研究主要针对三元组级别给定目标关系或谓词根据它所已知的三元组信息对其语义进行建模。按照关系语义的表示方法进行划分主要研究可以分为规则推导和知识库向量学习两类。基于规则推导的模型中二元关系或谓词 等同于布尔函数 对于给定目标模型旨在推导出由其它谓词构成的一阶逻辑表达式单个表达式的语义具有确定性同时人类可直接理解其语义表示具有很高的可解释性。早期研究以 AMIE 模型[22]为代表挖掘具有高置信度的规则后续的改进研 究着眼于挖掘多种可能的规则并赋予不同权重或概率丰富语义表达能力例如基于 MLN 模型的文献[23, 24]以及生成负样本对大量路径形式的规则进行特征学习的 PRA 模型[25] 和 SFE 模型[26]。另一个分支为知识库向量模型则依据已有的大量三元组信息学习每一个实体和谓词的连续向量或矩阵表示并通过实体和谓词表示之间的代数运算判断任意一个三元组事实的置信度。具体置信度定义方式不同ER-MLP 模型[27]基于简单的多层神经网络 RESCAL 模型[28] 基于实体向量和谓词矩阵表示的双线性运算TransE 模型[29] 基于主谓宾向量之间的距离度量并衍生出一系列改进模型[30-32]。这些方法能够更充分地利用海量三元组信息进行建模但是对谓词的语义缺乏直观解释。对于问句理解与推理的研究根据知识来源和答案形式的不同可以分为两类任务 基于结构化知识答案通常为实体、数值等简单形式的知识库问答KBQA以及基于非结构化文档答案表示为自然语言文本片段的检索式问答IRQA。后者不是我们的研究重点现有的研究工作主要使用阅读理解模型[33,34]从已有文档中抽取出最适合的文本片段作为答案。与关系学习类似根据对问句语义的表示形式解决知识库问答任务的方法也可分为两类。第一类方法在相关文献 [27,35-37] 中称为 “基于信息抽取的方法”它们遵循端到端问答的思路对每个问句生成一定量候选答案后机器学习模型用来解决二分类问题即判断每个问句候选答案对是否正确。模型使用的特征来自于候选实体在知识库中的信息包括名称具有的类型直接相连的谓词相邻实体等与问句中不同单词的交互早期模型使用特征工程最新的研究则聚焦于利用神经网络进行特征表示学习。这类模型的优点在于实现简单、训练数据容易获取但缺点在于可解释性较差大量抽象特征的存在使得人类难以理解某个候选答案被分类为正确或错误的根本原因。第二类方法称为语义解析 Semantic Parsing 答案实体的选取依赖于对问句语义的结构化建模将其表示为知识库中的实体、类型、谓词组成的一阶逻辑表达式。只需要将其转换为知识库上的结构化查询语言例如 SPARQL 即可查询出所有满足语义的答案因此具有很明确的可解释性。这类方法通常先根据问句信息生成少量候选查询结构再利用机器学习算法训练问句和查询结构间的语义匹配模型因此整体效果取决于这两个步骤的质量。查询结构生成方面可依靠 CCG [38,39]、 DCS [40,41] 等语法进行自底向上构建或者依赖深度优先搜索由简到繁生成查询结构[42,43]还可以基于固定模板进行生成[44,45]以牺牲灵活性为代价换取更有针对性的语义表达。语义匹配计算方面传统机器学习方法从候选结构的生成步骤中提取特征并与问句进行特征组合以实现模型训练与此同时深度学习方法通过学习知识库中不同实体、谓词等向量表示遵循 “编码—比较” 框架将问句和查询结构的语义特征映射至同一空间并计算向量间的相似度。基于深度学习的问答模型在近几年研究异常火热相关文献 [46-50] 等在简单语义的问答场景中不断取得突破。但对于更加复杂的问题这些模型并不能直接学习一个复杂查询结构的整体语义表达难以充分体现深度学习强大的特征表示能力。1.3 主要工作和贡献 本节中我们具体介绍本文的主要工作包括实体、关系、问句理解三方面的研究内容技术难点以及我们的贡献。1.3.1 实体理解问题 对于实体的理解我们聚焦于跨语言场景下的表格实体链接任务即以非英文编写的表格作为输入将每个单元格对应的实体链接至英文知识库。我们以该任务作为研究对象主要有两个动机首先英文知识库规模最为庞大而全面有助于让不同语言的人类共同理解知识其次表格行列间通常存在着特定的关系因此相比纯文本中的实体链接表格链接能更有效地帮助知识库进行知识扩充。本文是学术界首次对该任务进行具体研究具有以下两个主要特点1)短语和目标实体处于不同语言中必须在字面相似之外寻找候选实体收集和匹配度量的方式2)每个单元格和目标实体间的匹配可以体现在多个粒度例如单元格自身以及其所在的行列上下文同行列的实体之间还存在明显的关联性。为了解决跨语言表格链接问题我们提出了基于神经网络和跨语言词向量的链接模型。该模型首先通过已有翻译工具进行候选实体的收集但匹配过程并不依赖唯一的翻译结果其次模型利用多语言词向量的训练将不同语言中的实体和短语映射至相同维度空间实现最基本的匹配度量再次模型利用深度神经网络学习表格与目标实体间不同粒度的匹配特征并提出了基于方差计算的一致性特征以捕捉同列实体所具有的同质性最后模型基于联合训练思路以优化整张表格的匹配程度作为目标进一步提升整体链接质量。在跨语言和单语言两个场景上的实验表明我们的模型有效捕捉表格中实体之间的特殊联系同时在跨语言场景中具有稳定而良好的效果。1.3.2 关系理解问题 对于关系的理解我们旨在利用知识库构建人类可理解的结构化表达以描述二元关系语义并用于下游任务中例如关系分类和知识库补全。对关系的建模问题有以下两个特点1)与实体类似自然语言中关系存在着多义性即对应多种描述方式2) 自然语言关系和知识库谓词存在语义间隔由于知识库的构建避免了信息冗余一个关系未必能直接映射到知识库中的单个谓词。为了学习关系的语义我们根据开放式信息抽取系统在海量文本中抓取的结果为输入获取单个关系的多个主谓宾三元组从而以数据驱动的方式进行语义建模并由粗细两个粒度进行分析。在粗粒度方向我们关注于关系的多义性并通过其主宾语的类型搭配来区分其不同的语义。为此我们对知识库中不同类型间的包含关系进行挖掘 构建出更加丰富的类型层次结构并根据主宾语类型对的覆盖率和精细度进行筛选生成最能够代表关系语义的类型搭配。实验结果表明我们的模型效果优于传统的选择偏好模型。在细粒度的方向我们关注关系语义的精确表达使用人类能理解的图结构作为语义的表达形式。我们提出了基于规则推导的模式图推理模型该模型从已有的关系三元组出发用知识库中的谓词序列连接主宾语并在此基础上搜索额外的限制生成一系列具有 “路径 分支” 形式的复杂模式图。随后模型再次利用已有实例学习候选模式图上的概率分布在描述关系多义性的同时也完成了具体和宽泛模式图之间的平 衡。我们将生成的模式图概率分布运用于知识库补全任务中实验结果显示我们的模式图推理模型不仅具有高度可解释性而且效果优于其它规则推导模型和新兴的知识库向量模型。1.3.3 问句理解问题 对于问句的理解我们着眼于基于知识库的自动问答任务即对描述客观事实的问句从知识库中寻找出其对应的一个或多个答案实体。对于只包含简单语义的问题自动问答的过程等价于将问题转换为知识库上的一个事实三元组。然而人类提出的问题并不总以简单形式呈现而是会在其中加入更多限制。例如问句中存在多个与答案相关的实体、类型或是包含时间、顺序信息等对应着多条和目标答案相关的三元组因此面向简单问句的模型便不再奏效。在复杂语义场景中知识库问答具有以下挑战1) 如何从问句中发现存在的多个关系并组合成为一个候选语义结构2)如何计算自然语言问句和复杂语义结构之间的匹配程度。 我们提出了针对复杂问句的的深度学习语义匹配模型。该模型的思路是细粒度关系理解模型的延续使用知识库中的实体、谓词、类型等信息作为基本元素组成图结构 称其为查询图用于表示问句语义。它在具有良好可解释性的同时可以通过结构化查询语句如 SPARQL 在知识库中找出所有满足语义的答案实体。模型首先利用多阶段候选生成方式由简到繁生成不同的候选查询图我们已有工作进行优化更快速和准确地表示类型和时间限制。之后语义匹配模型的核心是利用深度神经网络学习问句和查询图整体的匹配程度我们的创新点在于对复杂的查询图进行整体编码生成其唯一的向量表示从而捕捉问句中不同语义成分的组合特征。同时我们利用依存语法分析作为对问句字面信息的补充使模型能更有效地将问句和不同的语义成分对齐。实验结果表明基于复杂查询图的深度学习模型在多个复杂问题和简单问题数据集上都具有良好的性能。第 2 章  国内外相关研究综述本章中我们将围绕具体任务介绍实体、关系、问句语义理解的基础知识和研究综述。实体理解部分我们从传统的实体链接任务出发介绍在文本和表格中的特征工程和深度学习模型以及用于跨语言实体链接任务中的跨语言词向量模型关系理解部分我们关注知识库补全任务并介绍两类主要的模型分别是规则推导模型和知识库向量模型问句理解部分我们将注意力放在面向客观事实类问题的知识库自动问答任务同样介绍两类模型即基于语义解析和基于信息抽取的模型前者与我们的研究更加密切本节也会重点阐述语义解析模型的多个组成部分。2.1 实体理解实体链接任务实体链接任务是一类从自然语言文本中识别出代表实体的字符串并将其映射到知识库中特定实体的任务。人工进行的实体链接体现在维基百科的页面编辑过程中页面作者会手动为部分代表实体的短语添加超链接指向对应实体的维基页面。这种带有维基内部超链接的短语被称为锚文本 Anchor Text 本文中也称为实体短语。基于机器学习的实体链接可以应用于不同场合的文本输入背后所使用的目标知识库也不局限于维基百科其它常用的知识库包括 DBPedia Yago 以及 Freebase 。考虑到这些知识库均基于维基百科信息构建而成实体链接任务又被称为“维基化” Wikification [13]。 以英文维基百科为例一个典型的实体链接任务见下例 实体链接任务首先需要提取出句中存在的实体短语即下划线对应的部分。该步骤与命名实体识别任务类似不同之处在于我们关注的实体短语除了命名实体具体的 人名、地名、组织名、书名、电影名等之外还包含了维基百科中存在的概念实体 用于指代一组相似实体。下一个步骤对每个实体短语从维基百科中抽取出候选实体集 并定义短语和候选实体之间的匹配分数从而将短语链接至最相关的候选实体例如句中的 5 个实体短语分别对应维基百科中的实体 Michael Jordanbasketball , National Basketball Association ,Chicago Bulls 以及Washington Wizards。除了无结构的纯文本以外互联网语料中的表格也蕴含了大量与实体相关的知识。 对表格进行实体链接的研究起源于 Limaye 等人[51] 的工作如图2–1所示除了每个单元格所对应的实体之外得益于半结构化的组织形式同一表列内的实体通常具有相同的类型而且两列实体之间描述了同一种关系的不同实例这些是非结构化文本所不具备的优势。因为表格带来了丰富关系知识表格上的实体链接在近年来受到了更多的关注。图2–1 Limaye等人提出的表格链接任务。作为自然语言理解中的基本任务实体链接是一系列下游任务的前置步骤。首先开放式信息抽取抽取的主谓宾三元组均为文本表示通常具有歧义一些研究工作旨在对三元组中的实体短语进行链接代表文献包括[4,52]在实现三元组消歧的同时结合知识库推理出主语和宾语所代表的类型有助于挖掘不同谓词关系之间的语义联系。 其次实体链接与知识库补全任务密切相关该任务的目的是向已有知识库中补充新的事实三元组。这些新添加的三元组主要来源于两方面随时间发展所产生的全新事实 或基于已有知识的归纳推理。基于前者的补全依赖于信息抽取系统的不断挖掘因此对主宾语的链接的准确率决定了知识库补全的效果。知识库补全的相关内容将在2.2节中论述。最后对于自动问答任务尤其是我们关注的基于知识库的事实类自动问答任务 其描述的是与问句中实体相关的事实因此不管以何种方式对答案进行建模都依赖于对已有实体的准确定位以限定问句对应语义的搜索范围。因此实体链接的结果好坏对这些任务的效果均有着很大程度的影响。 实体链接的重点在于从多个候选中找出正确的那个实体其本质为消除实体级别存在的一词多义性例如短语 “ Michael Jordan ” 具有多个可能的候选在维基百科中可能代表篮球明星、足球运动员、著名的机器学习教授甚至更多不那么有名的人。在缺乏上下文信息的情况下很难进行准确的链接。因此一个良好的实体链接模型相关性分数需要考虑多个因素包括实体本身的先验知识实体与短语的匹配程度以及实体与短语所在上下文的契合度。 基于特征工程的方式其信息来源主要为维基百科上的统计数据。随着深度学习的发展实体链接的研究将重心放在用表示学习替代或改良传统的特征工程方法。得益于也文本的向量表示技术以及神经网络的特征学习能力深度学习方法通过计算文本、 实体的向量作为其语义表达并利用高维空间的相似度衡量短语和候选实体之间的相关性在效果上也取得了不错的提升。接下来的几个小节主要介绍基于特征工程和深度学习的实体链接模型并单独介绍用于跨语言链接场景中的跨语言词向量技术。2.1.1 基于特征工程的实体链接 基于特征工程的实体链接方法较为经典的工作包括文献 [15, 16, 53-55]。这类方法的共性在于用预定义好的函数或概率值描述候选实体与实体短语及其上下文之间的特征通过学习特征的带权相加计算最终的匹配度。 在这类方法中一个候选实体所具有的特征可以分为三类先验特征上下文语义特征以及与句中其它实体的关联特征。先验特征与短语所处的文本无关仅基于短语与候选实体在维基百科中的统计信息主要体现为短语所在锚文本链接至该实体的概率以及实体出现在不同维基页面中的概率。上下文语义特征关注文本及目标实体的语义近似程度利用词袋模型 Bag-of-Words 将短语的上下文以及目标实体的维基页面分别转化为向量形式通过 TF-IDF 得到不同词语的重要性并用向量间的相似度代表语义匹配程度。实体间的关联特征体现在不同短语所对应的实体之间它们维基百科页面的相关性有助于实体链接的判断。在维基百科中若两个实体同时指向的页面较多 或同时指向这两个实体页面的其它实体较多则它们具有较高的相关度。常用的计算方式主要为点对点互信息 PMI [15] 或基于谷歌距离的维基链接度量 WLM [16]。其它的可选方式包括 Jaccard 相似度以及具有非对称形式的条件概率。 对于实体链接模型的训练方式若不同的实体短语之间互相独立那么训练过程是一个简单的监督学习问题即判断每一个短语实体对的正确性。考虑到每个短语仅对应唯一的正样本其余所有候选实体均为负样本为了保持正负样本的平衡一般采用 Ranking SVM [56] 或最大间隔 Max Margin 模型进行训练。这样的做法称为局部优化显然忽略了候选实体之间的关联。为了能捕捉这一特征Ratinov 等人[15] 首先利用 局部优化方案对每个实体短语进行链接得到具有一定质量的次优解然后根据次优解计算候选实体与其它实体的关联特征用于完整的模型训练。Shen 等人[16] 对两个实体之间的相关度计算进行了类似的简化将单个实体与其余短语的所有候选分别进行相关度计算并选取最大值作为特征。Bhagavatula 等人[57] 通过迭代的方式不断对每个短语预测的实体进行更改实体间的相关度特征也随着不断变化更加靠近真实情况。以 上这些方法通过简化特征或迭代预测的方式使得训练过程得以保持对每一个 短语 实体进行打分的形式。 与之相对的全局优化方法则将整个文本以及所有不同短语的候选实体整合在一个目标函数中因此可以对更加复杂的相关性进行建模。Hoffart 等人[53] 在模型中构建了一个包含所有实体短语以及候选实体的无向图不同的特征值体现为图中具有不同权重的边该模型通过贪心算法寻找图中具有最大权重的稠密子图使得每一个短语在子图中与唯一的一个实体相连。Luo 等人[55] 利用条件随机场 CRF 对实体链接与命名实体识别任务 NER 同时建模使实体链接过程能够利用 NER 的一系列特征。Yang 等人[54] 提出的 S-MART 模型考虑到了多个实体短语不能重叠的限制属于全局优化的范畴利用前向后向算法对所有短语进行链接保证在多个短语重叠的情况下最多一个短语指向具体的实体其余均指向空实体。同时该模型通过迭代决策树 MART即 GBDT 对匹配度进行建模 MART 在工业界被广泛使用具有非常良好的效果。2.1.2 基于深度学习的实体链接 传统的特征工程方法需要人工干预寻找更有效的特征还需要花费更多的时间。最新的深度学习研究更加关注利用神经网络的表示学习能力自动挖掘文本和实体的隐藏特征形成各自的抽象表示在避免特征工程耗费人力的同时还能学习人类难以直接描述的高层特征。在自然语言处理领域中词向量技术[58-60] 为深度学习模型的基础。 以 Skip-Gram 和 CBOW [60]为代表的词向量模型通过半监督方式从纯文本语料中构建训练数据根据上下文单词预测、词序列正确性预测等任务学习每个单词的向量表达 对应连续语义空间中的不同坐标点。相似单词在语料库中具有接近的上下文因此在连续空间中位置更加接近。由于句子和段落都是不同单词的特定组合因此它们的抽象表示主要通过神经网络对词向量进行计算而得常见的方法包括卷积神经网络[61]循环神经网络[62] 以及具有注意力机制[63] 的模型变种。 基于深度学习的实体链接模型包括文献[17-19,64]它们首先通过特定的神经网络结构计算出实体短语所在的上下文表示以及候选实体的表示。之后通过定义向量之间的相似度函数作为匹配分数。而这些模型之间的区别主要在于表示实体或短语的信息来源和编码粒度。 Francis-Landau 等人[17]使用了以卷积神经网络为主体的神经网络进行实体链接。如图2–2所示文档中的一个实体短语对应着三种上下文短语自身、短语所在句子、短语所在段落。相似地一个候选实体也对应两种上下文实体的名称以及对应维基页面中的所有段落。将它们输入至不同参数的卷积神经网络便可得到短语和实体在多个不同粒度的上下文向量表示。通过两两计算相似度的方式即可得到6个不同粒度组合的语义相似度。最后结合已有的人工特征通过逻辑回归层得到最终匹配度。图2–2 基于多粒度卷积神经网络的实体链接模型。Sun 等人[18] 的模型对不同的上下文信息采用了不一样的网络结构。如图2–3所示 对短语建模的信息包括短语自身以及去除自身后的句子两部分而实体方面除了利用本身名称之外还使用了它在维基百科中的分类信息用这类人工提炼的知识补充实体的表示。对句子的表示学习依然使用卷积神经网络其余三种信息由于长度较短均直接使用了词向量平均的方式得到向量表达。进一步该模型利用较为复杂的神经张量层将各部分向量结合分别得到实体和短语的整体表达。类似的方法还有文献[19]对实体的维基分类信息进行表示学习通过双向循环神经网络对短语所在句子进行编码。 同时模型定义了不同信息之间的多种损失函数对训练数据的利用更加充分。图2–3 基于神经张量层的链接模型。此外知识库向量学习技术[29] 也被用于实体链接任务中。知识库向量学习与词向量学习类似以大量事实三元组作为训练数据学习每个实体的向量表示使得相近语义的实体具有相近的向量。Fang 等人[64] 提出的链接模型基于知识库向量与词向量的融合通过实体与短语互相替代的方式定义了基于三元组以及共现词对的目标函数促使实体与其短语的向量尽可能一致因此所有向量表示被映射到同一个高维语义空间中。融合的优势在于实体和单词之间直接可比通过距离度量函数计算候选实体与短语上下文中不同词的距离并以此作为链接模型的特征。2.1.3 跨语言词向量 上一节的论述中提到了词向量模型用于学习词汇的连续语义表示但仅局限于单一语言。对于涉及多个语言的任务难点在于如何实现语义的跨语言过渡。为了解决此问题跨语言词向量模型Cross-Lingual Embedding Model 旨在消除单词语义表示对语言的依赖将不同语言的向量表示映射至同一连续空间并依旧保持相似语义单词更加接近的特性以此实现语义迁移。例如图2–4展示了一个英语和德语之间的共享语义 空间可以清晰地识别出两种语言间的许多组翻译词对。 图2–4 英语和德语间的跨语言词向量例子。跨语言词向量的训练需要依赖平行语料库用于给模型提供语义对齐信号不同的训练方式区别在于平行语料的类型不同例如单词级别[60,65,66]、句子级别[67,68]、文档级别[69] 的对齐。利用单词级别对齐进行跨语言词向量训练的工作最为普遍训练数据主要来自于双语或多语词典中抽取出的高质量翻译词对。以此为例对于源语言  和目标语言 模型的损失函数  由三部分组成  (2–1) 其中  代表各自语言上进行单语言词向量训练的损失可直接使用 CBOW 等已有模型进行计算而  为正则项对应单词对齐的损失。对于  的定义相关文献进行了不同的尝试。Mikolov 等人[60] 发现在不同语言中多个单词的向量表达之间几何关系较为相似例如英语和西班牙语中表示数字的单词之间的相对位置几乎一致表示动物的单词也有类似特性。基于以上观察该工作提出的模型使用了线性变换的方案训练转移矩阵 或称投影矩阵使得源语言词向量  经过  投影后和对齐的目标语言词向量  的欧氏距离平方即均方误差尽可能小 2-2基于线性映射的跨语言词向量模型具有一些变种例如文献 [70, 71] 限制转移矩阵 为单位正交阵以保证映射后的词向量维持单位长度Artetxe 等人[72] 指出对于模型效果而言转移矩阵正交化比向量正则化更加重要。Lazaridou 等人[66] 对 的定义 使用了最大间隔 Max Margin 损失来代替均方误差损失即不追求  与 绝对 距离尽可能小而是让 比其它任何不相关单词都更加接近 从而避免跨语言词 向量出现过多中枢词的现象。Faruqui 等人[73] 利用典型相关分析 Canonical Correlation Analysis , CCA [74]进行词向量训练。CCA 同为线性投影方式不同之处在于CCA 对两 个语言分别学习一个线性变换矩阵目标是尽可能降低映射后每个翻译词对的互协方差分值。此外跨语言词向量的训练还可对于通过句子或文档级别的平行语料进行跨语言词向量的训练由于不是本文的研究重点故不展开论述。跨语言词向量能够应用在多种任务中例如文档分类[65]、词性标注[71]、命名实体识别[75]、机器翻译[76] 等其带来的知识迁移具有很高的实用性。对于训练集和测试集为不同语言的任务跨语言词向量能实现知识在不同语言上的迁移对于类似机器翻译、跨语言实体链接等输入和输出为不同语言的任务预训练好的跨语言词向量能够作为特定任务模型的训练起点消除语义的间隔从而提升整体效果。2.2 关系理解知识库补全任务 现有的知识库具包含了庞大数量的实体和事实但其中的内容仍然不够完全尤其是存在大量的长尾实体并没有多少事实与之相关。因此知识库补全任务 Knowledge Base Completion, KBC 的目的是向已有知识库中添加缺失的事实三元组。这些新增的三元组中无论是谓词还是它的两个参数实体和都已存在于知识库中。换言之新增的事实并不会给知识库带来额外的节点或是从没见过的边而是让知识库的图结构更加稠密。 新增事实三元组尤其是参数实体的获取方式通常有两种。第一种来源为经过了实体链接过后的外部文本纯文本或表格文本均可称为来源。对于纯文本当在句中定位两个参数实体后句子剩下的部分成为了描述实体间关系的上下文。此时即可依据上下文信息来预测对应的知识库谓词即等价于关系分类问题相关研究包括词级别卷积神经网络[61] 以及依存语法路径上循环神经网络[62]。对于表格文本知识库补全关注于表格的两列之间利用表列所包含的实体判断两列之间的关系是否与知识库中特定谓词对应实现可能的大批量事实补全。例如图2–1Title 和Author 列之间的关系被映射到 YAGO 中的谓词。 第二种来源不涉及到任何知识库外的信息新增三元组来自于知识库的内部挖掘 通过寻找不同谓词之间的关联推理出可能缺失的事实。例如1.1节提到的例子“某人的国籍缺失可以根据其出生地所在的国家进行推测” 人类可以通过这样的方式进行知识的手动补充正是因为掌握了国籍、出生地、地点被包含这三个谓词之间的关联。 这条路线不受知识库外信息的干扰因此是我们关注的研究点。 学术界已有工作在此场景上研究知识库补全的解决方案并提出了相关的 KBC 数据集例如 FB15k [29]和 WN18 [77]分别是 Freebase 和WordNet 的子集。对于知识库补全模型的测评主要通过主宾语预测 Link Prediction 以及三元组分类 Triple Classification 这两个子任务来进行。前者为三元组或预测缺失的主语或宾语后者则判断给定的是否为正确事实。两者虽然形式不同但都需要计算三元组的置信分。 解决知识库补全的方法主要分为两类。第一类基于规则推导用逻辑表达式描述实体间存在特定谓词时所需要满足的特定规则第二类基于知识库向量学习所有实体、谓词的连续特征表示并挖掘三元组各部分特征表示之间存在的深层代数关系。下面将分别介绍这两种方法。2.2.1 基于规则推导的模型 基于规则推导的模型旨在使用人类可以直接理解的规则形式来描述不同谓词之间的联系即如果和之间满足特定的条件则推理出三元组成立。为方便论述我们将三元组以布尔表达式表示若对应三元组存在于知识库中则表达式为真否则表达式为假。文献[25]以一个简单的推导规则为例若已知某运动员为球队效力以及球队所处联盟则可以推导出运动员所参与的体育联盟。该规则可以通过一阶逻辑表达式进行形式化描述 (2-3)其中 E 表示知识库实体集合。规则的左侧部分使用的两个谓词实现了主语到宾语 c 的连接且不包含多余的布尔表达式因此这条规则表现为由谓词序列构成的路径。对于“依靠出生地推测国籍”的规则我们可以形式化为以下逻辑表达式 (2-4)其中谓词序列  为连接主宾语的路径而谓词使得宾语 c 还需要满足额外的限制条件因此这条规则具有比路径更加复杂的结构。 利用单个推导规则进行知识库补全存在两个局限首先规则本身不一定完全正确限制条件过于宽泛的规则可能打来错误的事实其次单个规则的覆盖率较低能够补全的知识有限。针对这两个局限已有的规则推导工作都致力于从知识库中挖掘目标谓词的多条规则并学习不同规则的重要性以实现更健壮的知识库补全。 Lao 等人提出的 PRA 模型[78] 实现了规则的挖掘和学习。对于目标谓词 模型首先利用谓词已有的三元组作为训练数据在知识库中寻找所有能连通和的谓词序列形成了多种路径形式规则。模型利用逻辑回归实现规则权重的训练以及对新三元组是否为真的预测。每一条挖掘的规则类比为一个特征对应的特征值为路径随机游走概率即从主语出发沿规则的谓词序列随意跳转最后到达的概率。由于知识库中的谓词可能代表一对多关系因此随机游走概率值会小于1甚至为 0无法通过当前规则连通。基于此PRA 模型能够快速抽取大量路径规则并利用已知三元组在规则上随机游走概率实现权重训练。一些研究工作对 PRA 模型进行了扩展。文献 [25] 对挖掘的路径规则进行了限制要求规则至少要适用于训练数据中一定比例的主语并对计算随机游走概率的采样方式进行了优化这两个扩展都是基于模型性能优化为考量。Gardner 等人提出了SFE模型[26]它在 PRA 模型基础上进行了两项改进首先模型将作为特征值的随机游走概率替换为0/1特征即只关心是否连通在大幅度提升运行速度的同时对结果没有显著影响其次模型引入不同于路径规则的其它特征例如提取路径中的谓词bigram或由主语出发却不指向宾语的单边特征等扩充特征集合以提升知识库补全效果。Wang 等人提出了 CPRA 模型[79]主要针对具有相似谓词的规则推导优化。该模型通过层次聚类识别出具有相似语义的知识库谓词集合然后对每个集合内的谓词采用多任务学习框架共享挖掘的规则特征和部分耦合参数使模型能够捕捉相似谓词之间的共性实现隐式的训练数据共享。2.2.2 基于知识库向量的模型 与词向量模型类似知识库向量的模型旨在学习一个知识库中的实体、谓词等元素在连续空间的特征表达以完成一系列下游任务。具体在知识库补全任务中三元组置信分的计算并不依赖自动挖掘的推导规则而是来自主谓宾三者的连续特征表达在不同维度上的交互。词向量模型依靠大规模的纯文本语料构建上下文单词预测任务来完成训练[60]相比之下知识库向量模型的训练过程更为直观利用知识库已有三元组作为训练数据正样本并自动生成不存在的三元组作为负样本计算三元组置信分进行训练而这也恰好与知识库补全任务的目标一致。 知识库向量模型的优点在于所有谓词共同训练更有效地利用训练数据并且能在连续空间中体现不同谓词的相似性但相应地其缺点在于可解释性较弱。不同的知识库向量模型对实体和谓词的特征表示具有不同的形式特征交互的方式也不尽相同下 面主要介绍几个具有代表性的模型。 由 Nickel 等人提出的 RESCAL 模型[28] 是一个基础的知识库向量模型模型对三元组置信分简写为 S的定义基于主宾语实体特征表示的在不同维度间的两两交互 2-5其中和为对应实体向量维度为。为谓词的权重矩阵其中体现了实体向量的第和维特征对于第个谓词的交互重要性。由于 RESCAL 使用矩阵连乘形式捕捉实体向量之间的交互因此也被称为双线性模型。如图2–5a所示 RESCAL 模型可表示为双层神经网络结构首先通过张量积 Tensor Product 构建实体对 ( ,  ) 的组合特征再利用与特定谓词相关的参数作为权重得到三元组最终的置信分。 RESCAL 模型学习的实体特征表示能够捕捉不同实体间的语义相似性换言之若两个实体可以通过相似的谓词连接至相似的其它实体那么它们的特征表达也更加相近。图2–5 多种知识库向量模型示意图。RESCAL 模型存在的一个问题在于参数量过大每一个谓词对应参数量为 对于拥有大量谓词的知识库而言会带来可扩展性的问题。一些后续研究对此进行了改进。Socher 等人以及 Dong 等人分别提出了 E-MLP [81] 和 ER-MLP 模型[27]。图2–5b为 ER-MLP 的示意图均由两层前向网络构成第一层用于学习三元组的组合特征表示 第二层则通过组合特征输出置信分。 E-MLP 结构较为类似故此处不专门画图。两个模型的置信分计算如下2-6其中为非线性激活函数。对比 RESCAL 模型E-MLP 的最大不同在于可以通过调整矩阵来学习实体间不同维度特征的交互从而优化实体对 (, ) 的组合特征表示并大幅度减少参数数量。E-MLP 模型中不同的谓词依然对应不同的参数而 ER-MLP 模型将谓词也映射为向量表示与两实体共同作为第一层的输入因此模型的参数 C 与均与特定谓词无关。两个模型依然能够让语义相似的实体映射至连续空间的相近位置。 Nickel 等人提出了 HOLE 模型[82]该模型利用循环相关运算 Circular Correlation 巧妙地代替了 RESCAL 中的张量积操作2-7可以从公式中看出循环相关运算等同于将张量积的结果进行了分组模型通过对实体特征表示的学习让具有相似语义的特征交互归为同一组共享同一个权重。因此 HOLE 的优势在于将 RESCAL 中的二维矩阵参数降低至一维同时尽可能保留了特征交互的表示能力并且在实验中效果优于 RESCAL 和 ER-MLP 模型。此外Socher 等人还提出了较复杂的神经张量网络 Neural Tensor NetworksNTN 模型[81]可以看做是 RESCAL 和 E-MLP 的组合体对实体对(,)构建的组合特征表达同时包括双线性和前向网络特征但模型参数量也因此更加庞大在小数据集上更容易出现过拟合。 另一类知识库向量模型是以 TransE 为典型的被称作隐距离模型。相比 RESCAL 等模型依照神经网络构建的置信分函数隐距离模型对置信分的计算则与距离度量直接相关。这与 2.1.3 节介绍的跨语言词向量训练有着相似之处源语言词向量经过转换后与翻译后的词向量尽可能相近。而对于知识库向量模型由于三元组中还有谓词的存在 因此模型训练的实质是学习主宾语实体向量在特定谓词下的变换方式对变换之后的向量表示进行距离度量距离越近则置信分越高。为了和相关工作统一此处用( ,, )表示一个事实三元组。Bordes 等人提出的 SE 模型[83] 较为基本度量实体和经矩阵变换后的距离2-8其中  为距离度量函数例如 L1 距离或欧氏距离。谓词 对应两个参数矩阵分别映射主语和宾语实体的向量表示至同一空间。为了降低参数个数Bordes 等人提出了 TransE 模型[29]这也是后续很多改进模型的起点。受到词向量之间代数运算的启发例如[84]不同词之间的关系体现在了它们词向量的位置偏移中因此如图2–5c所示TransE 模型共享了实体与谓词的特征表示利用在主语实体在 同一空间中的平移变换代替更加复杂的矩阵变换 2-9TransE 模型设计简单、容易实现并且具有训练速度快、可扩展性高等优点但是对于知识库中存在的一对多或多对一的谓词不友好例如固定主谓TransE 无法有效区分出多个匹配的宾语实体。为此TransH 模型[30] 尝试通过超平面投影来解决此问题 公式定义如下2-10如图2–5d所示TransH 首先把和的向量表示均投影到连续空间中谓词对应的超平面上为单位法向量并学习谓词向量表示在超平面上沿用 TransE 的度量。 因此TransH 具有更高的灵活度来应对一对多或多对一谓词同时依然保有 TransE 可 扩展性高的特点。TransR模型[31]同样尝试解决一对多谓词的问题类似于 SE 和 TransE 的组合体利用投影矩阵将实体表示转移至新的空间后再进行基于平移的距离度 量。因此 TransR 模型中实体和谓词的特征表达并不共享同一个语义空间这与 TransE 和 TransH 模型均不同 2-11此外还有其它 TransE 模型的改进工作包括体现距离度量在不同特征维度间差异的TransA [85]生成谓词多个表示以解决一对多问题的TransG [32] 等这里不再展开讨论。2.3 问句理解知识库自动问答任务 自动问答任务是一类以自然语言问句为输入并自动给出对应答案的任务。基于知识库的自动问答 Knowledge Base Question Answering, KBQA 是其中的一个热门研究方向也是本文重点关注的问题。在此问答任务中输入问句为来自开放领域的事实类问句 Factoid Question 即问句本身描述的是与某些特定实体相关的客观事实对应的答案通常表示为知识库中的实体、时间、数值等简单形式因此类似“how”、“why”等以完整句子作为答案或事实涉及到主观判断的问题不在任务的考虑范围之内。以一个简单的英文问句为例问句“what state borders texas?” 描述了与德克萨斯州相关的事实 其答案有多个包括New MexicoOklahomaArkansas以及 Louisiana 四个实体。对于知识库问答任务使用的外部信息显然为结构化知识库。正确答案的获取依赖于问答模型对问句整体语义的理解一方面准确定位问句中出现的相关实体并链接至知识库另一方面根据问句信息推理出未知答案与相关实体在知识库中具有的关系。前者涉及到实体链接技术后者体现了问句与知识库的语义匹配也是问答模型的核心。为了衡量问答模型对不同类型问题的效果学术界已提出了大量知识库问答数据集例如对问句进行结构化语义标注的 QALD [86] 和 Free917 [38]以及具有更大规模问答数据量的 WebQuestions [40] 和 SimpleQuestions [47] 等。 与知识库补全任务类似根据问句语义的表示形式进行划分知识库问答模型大致可以分为两类即基于语义解析 Semantic Parsing 和基于信息抽取 Information Retrieval 的模型下面将分别介绍研究。2.3.1 基于语义解析的问答模型 解释语义解析技术之前我们先讨论人类对问题的思考方式。对于人类来说问句 “what state borders texas” 包含了两个与正确答案相关的线索1) 答案是一个美国的州2)答案与德克萨斯州相邻接。由于答案未知因此每一个线索都对应着一个具有变量参数的事实三元组。语义解析技术的目的就是用存在于知识库上的实体和谓词对这些线索进行结构化表示。根据这两条线索原问题的答案集合可表示为一阶逻辑表达式 2-12 其中代表未知答案实体表达式中的为真当且仅当三元组存在于知识库中。对于机器而言得到逻辑表达式之后将其翻译为知识库上的查询语句即可直接得到所有满足语义的答案这些答案彼此具有完全一致的特征。由此可见基于语义解析的自动问答模型实质是寻找正确的语义结构化表示即判断问题结构化语义的匹配程度而不仅仅寻找一个答案实体。相关工作[39,40, 42,43]的研究重点在于如何由句子生成知识库上的结构化语义表示以及如何对问题和语义结构的匹配程度进行建模。2.3.1.1 结构化语义生成方法 仍以 “what state borders texas” 为例不同研究工作中的结构化语义形式并不相同 但本质都为公式2–12所描述的逻辑表达式。图2–6列出了一些典型工作生成的解析结构。 图2–6 例句“whatstateborderstexas”的多种解析结构。早期的语义解析模型[38,87,88] 使用概率化组合文法 Probabilistic Combinatory CategorialGrammarPCCG 生成语义解析树。该方法与语法解析中的概率化上下文无关文 法 Probabilistic Context-FreeGrammarPCFG 相似根据训练数据学习文法中不同生 成式规则的概率值并自底向上推理出每个句子最可能生成的成分解析树 Constituency Parsing Tree 。图2–6a为例句的成分解析树描述了整句的语法结构并标出了不同短语在句中的成分。通过 PCCG 生成的语义解析树如图2–6b所示PCCG 的生成式规则中不仅具有代表语法的成分信息同时还包含代表语义的 λ 表达式因此不同成分按照语 法规则组合的过程中各自 λ 表达式也在进行拼接从而得到对应整句话语义的逻辑表示。PCCG 语法具有很强的语义表示能力但由于生成式规则中涉及到不同的 λ 表达式同时训练数据匮乏使得模型的训练具有难度。Liang 在 2013 年提出的 λ-DCS [89] 旨在以更加简单的概念和流程将问句转换为 Freebase 上的语义解析树。如图2–6c所示生成过程依然是自底向上模式叶节点单词或词组对应 Freebase 中的实体、类型或谓词但不再具有显式且复杂的 λ 表达式。 λ-DCS定义了节点组合过程的有限种语义合并方式包括连接、交集、并集甚至更加高阶的最值、计数等操作使得与 PCCG 相比生成的语义解析树在结构更加简单的同时牺牲了一定表达能力但对于事实类问题的理解来说依然足够。 Yih 等人[42] 提出了一种多阶段的语义结构生成方法如图2–6d所示语义解析树被表示为有向图形式称为查询图图中的每一条边以及连接的两个节点都对应公式2–12中的三元组。与之前两种方法的自底向上生成不同多阶段语义结构生成基于由简到繁逐步生成查询图的思路。最简单的查询图为答案节点通过谓词或多个谓词构成的序列连接至问句中的某一实体形成仅有一条有向路径构成的查询图。问句中抽取的其它实体、类型、时间等信息则通过多个不同的阶段逐步连接至已有的路径 上构成更加复杂的查询图。该方法不受限与问句中词的先后顺序查询图的生成更加灵活在多个问答数据集上均有良好的效果。 Cui 等人[44] 提出了一种基于模板的方式对问句生成谓词序列形式的语义结构。模板是对问句抽象表示它将问句中的实体替换成类型指代了一组具有相同语法和语义描述的问句“what states border $location” 是一个具体的模板例子。模板的提取依靠外部的大规模问答数据作者对 Yahoo! Answers 中大约 41M 问答对进行实体与答案识别后生成了约27M不同的模板并通过 EM 算法学习其指向谓词序列的条件概率。对于 每一个问句的语义结构生成则通过生成模型由模板进行过渡得到不同谓词序列的概率。这样的方法优点在于利用大量外部数据获取准确率高的模板以及和语义的匹配但模型的召回率可能成为短板当问句语法不规范时简单的模板匹配容易失效。此外 一些文献 [90,91] 使用了基于依存语法树转换的方式利用结构相似性实现语义解析结构的生成这里不再一一介绍。2.3.1.2 语义匹配模型构建由于自然语言的多义性语义解析结构的生成结果通常都不唯一因此需要对问句语义解析结构的匹配度进行建模选择最高匹配度的解析结构进行知识库上的答案查询。传统的语义解析模型主要基于特征工程Berant 等人[40] 的研究工作为一个典型例子。语义解析树由 λ-DCS 生成抽取出的特征包含三类问句中的短语与对应知识库谓词的对齐特征不同谓词参与合并的特征以及解析树的总体结构特征。前两类特征来自于解析树的自底向上生成过程用于捕捉每一个操作后一类特征则统计解析树中不同类型操作的数量以及最终返回的答案数量。 为了弥补特征工程耗费人力的缺陷同时获取更高层面的语义匹配信号Berant等人在后续的工作[41]中引入了转述特征Paraphrasing Feature通过简单的规则将解析树翻译成自然语言问句并衡量原问句和生成问句之间是否具有转述关系将其作为额外一组特征。转述关系涉及到自然语言文本匹配问题作者使用基于词对应的关联模型和词向量的维度空间模型两种方式进行建模使得问答系统可以得到解析树的整体语 义是传统特征工程的有力补充。 最新的自动问答模型广泛使用了深度学习技术。相关研究的共同点在于遵循一种 “编码—比较”框架其重点在于通过神经网络的特征学习能力对问句和解析结构分别进行编码得到各自向量表示最后计算向量之间的相似度代表问句与解析结构的匹配程度。以简单问题数据集SimpQuestions 为代表的问答模型几乎完全属于这一范畴 由于在 SimpleQuestions 中问句的语义解析结构均为单一谓词序列因此这些模型本质上都是对文本序列和谓词序列之间的匹配进行建模。Yu 等人[49] 提出的 HR-BiLSTM 模型利用循环神经网络进行建模如图2–7所示谓词序列输入分为两个粒度以唯一编号表示的编号序列以及将谓词名称相连的单词序列分别通过双向 LSTM 层进行编码问句文本的编码也利用了双向 LSTM 层并使用多层间的残差连接方式进行编码旨在让模型能同时捕捉单词粒度和问句整体粒度的语义信号。SimpleQuestions上的其它类似模型还包括文献[48,50,92,93]。图2–7 HR-BiLSTM模型对于 WebQuestions 等数据集上的复杂问题如同图2–6d的查询图虽包含多条路径但也可以选择其中最重要的路径作为主体与问句计算匹配程度。微软的两个自动问答的研究工作[42,43]利用了基于卷积神经网络的 CDSSM 匹配模型[94]对问句和谓词路径的特征学习更多关注局部的词序信息见图2–8。其中前一个研究工作由 Yih 等人[42] 提出深度学习模型仅关注问句和最重要谓词路径的匹配度对于查询图的其它分支路径依然使用特征工程的方式寻找问句和谓词的字面匹配。Bao 等人[43] 的改进在于同样利用 CDSSM 模型对分支路径与问句中的特定上下文进行匹配替代了繁琐的特征工程。然而这些模型并没有能够学习到查询图整体在连续语义空间的特征表达 不同路径的语义互相独立因此面对复杂问题仍存在缺陷这也是我们的研究重点。图2–8 CDSSM 模型。2.3.1.3 训练方式训练方式的不同主要取决于训练集中是否包含已标注的语义解析结构。已有的问答数据集中Free-917 人工标注了每个问题的逻辑表达式QALD 系列数据集则标注了 SPARQL 查询语句。对于这些正确结构已给定的数据集可以直接利用监督学习算法进行匹配度训练。显然语义结构的标注需要知识库领域的专家因此标注过程会消耗大量人力更大规模的数据集例如 WebQuestions 和 ComplexQuestions 仅包含每个问题的正确答案而没有语义结构信息。对于这些数据集首先需要通过远距离监督方式构造可直接使用的训练数据即对所有训练问题自动生成语义结构的正负样本。已有的方法主要利用分数衡量语义结构的好坏兼顾其生成的查询结果的准确率与召回率即 其中代表准确率代表召回率。再通过设定阈值将不同的语义结构划分为正负样本例如 Berant 等人[40] 仅将分值为 1即答案完全匹配的语义结构作为正样本 而 Yih 等人[42]则将阈值设为0.5容忍一定程度的答案不完全匹配。远距离监督方式避免了人工标注大量语义结构但考虑到语义偏差的存在即答案正确的语义结构未必正确自动生成的训练数据也会引入一定量的错误。2.3.2 基于信息抽取的问答模型 基于信息抽取的自动问答模型旨在直接从知识库中寻找正确答案而不尝试对问题进行具体化的语义建模。模型主要包含三个步骤1)对问句进行实体链接得到其中包含的相关实体2) 在知识库中抽取出这些相关实体周围的其它实体构成候选答案集合3) 计算问句与每一个候选答案的匹配度以此预测出其中的正确答案实体。显然模型的关键点在于第三步即以怎样的特征描述候选答案与问句之间的关联。在知识库中一个实体所具有的信息主要包含它的名称、类型、直接相连的谓词以及周围的其它实体。这些信息组成了知识库中以该实体为中心的局部图不同的信息抽取模型都以这样的局部图作为候选答案实体的输入。而这些模型的区别在于特征的选取或学习方式。 Yao 等人[35] 提出的模型利用特征工程方式将问句特征与候选答案特征进行配对组合得到大规模的关联特征。问句侧的特征来源于依存语法树从中抽取出不同的依存路径以及具有强烈语义的词汇如动词wh-疑问词。答案侧的特征为答案的类型 以及与问句已知实体相连的谓词路径。通过训练具有高相关性的配对特征例如疑问词“where”与答案类型 location 配对将具有更高的权重。深度学习同样适用于基于信息抽取的问答模型。Bordes 等人[95] 提出了 QASE 模型 同样基于 “编码—比较” 框架如图2–9所示问句和候选答案的局部图分别进行编码问句的编码信息为每个词的出现次数候选答案则通过二进制编码表示答案实体自身、 所属类型、相邻的谓词等信息。模型学习映射矩阵将各自编码转换为连续空间上的语义向量的每一行对应一个元素词、实体、类型、谓词的向量表示因此该模型实现了词向量和知识库向量的联合建模。图2–9 QASE模型。 还有一些深度学习模型采用问句分别与答案相关的不同维度信息计算相似度再将各个维度的相似度进行聚合得到问句与候选答案的整体匹配度。Dong 等人[96] 提出了 MCCNN 模型如图2–10所示模型使用多个不同的卷积神经网络层对问句进行编码 从而得到问句针对不同信息的向量表达。将它们分别与答案的类型、谓词、上下文向量表达计算相似度之后最终的匹配度为这些相似度分值的总和使得模型在寻找最佳答案时能兼顾来自不同方面的匹配特征。图2–10 MCCNN模型。 Hao 等人[37] 的模型在 MCCNN 基础上进行了改良除了将问句编码多个卷积层改为唯一一个双向 LSTM 层以外主要的贡献在于模型中使用了问句和答案之间的双向注意力机制。一方面针对答案在不同方面的表达答案对问句的注意力能够动态调整问句中不同词的重要性另一方面问句对答案的注意力使得多个相似度分值互相之间也具有权重模型训练效果要优于无差别的求和操作。 和语义解析模型比较信息抽取模型实现了问答系统的端到端训练直接以 问题答案作为训练数据防止远距离监督引入错误。但同时也具有解释性较低的缺陷 无法直接输出模型所理解的问句语义结构有时答案预测虽正确但特征中可能存在语义偏差。对于复杂语义的自动问答研究我们更在意语义结构的正确性它能直接体现 一个问答模型是否具有良好的语义理解能力。2.4 本章小结本章对实体、关系、问句理解这三个层面的研究进行了背景介绍和文献综述。实体理解方面深度学习模型和跨语言词向量是我们较为关心的内容将会在第三章的跨语言表格链接任务中使用。关系和问句理解方面本章各介绍了两种路线不同的方法分别是关系理解的规则推导、知识库向量表示以及问句理解的语义解析、信息抽取。这 四种方法之间存在着一些共性规则推导和语义解析的共同点在于语义理解需要显式的语义结构一阶逻辑表达式或与之等价的知识库子图作为媒介而另外两者的共同点在于对实体、类型、谓词等知识库元素进行表示学习以端到端的形式训练模型更加面向具体任务。在第四章和第五章的研究中我们更加在意机器是否能理解具有复杂语义的关系或问句而不仅仅停留在特定任务的输出是否正确因此规则推导和语义解析是本文关注的重点。参考文献了解更多信息请点击知识工场网站主页http://kw.fudan.edu.cn/合作意向、反馈建议请联系info.knowledgeworksgmail.comOpenKG开放知识图谱简称 OpenKG旨在促进中文知识图谱数据的开放与互联促进知识图谱和语义技术的普及和广泛应用。点击阅读原文进入 OpenKG 博客。
http://www.zqtcl.cn/news/964998/

相关文章:

  • 做个淘宝客网站怎么做济南网络推广公司排名
  • 西宁网站建设优化东莞建网站公司案例
  • 建设网站iss手工活接单在家做有正规网站吗
  • 六安做网站的公司专门建立网站的公司吗
  • 西昌市建设工程管理局网站wordpress主题知更
  • 企业网站如何上存青岛做外贸网站哪家好
  • 保定网站建设冀icp备织梦设置中英文网站
  • 烟台市建设工程检测站网站妖姬直播
  • 式网站西安网页搭建
  • 百度云虚拟主机如何建设网站四川建设人员信息查询
  • 浅谈学校网站建设html5网页制作代码成品
  • 网站在当地做宣传郑州高端设计公司
  • 一级a做爰网站微网站建设平台
  • 网站建设 中广州网站建设+致茂
  • 常德车管所网站工作微信管理系统
  • 什么软件可以做dj视频网站做的好的装修公司网站
  • 网站维护的内容和步骤如何建设像艺龙一样网站
  • 外国人做的学汉字网站公司网页需要哪些内容
  • 网站做缓存企业营销型网站的内容
  • 免费带后台的网站模板wordpress vr主题公园
  • 美丽乡村 网站建设wordpress分页工具栏
  • 卡盟网站是怎么建设的产品开发设计
  • 第一免费营销型网站一起做网店17
  • 高端学校网站建设做网站是怎么赚钱的
  • 哪里可以找人做网站在服务器上中的asp网站后台能输入帐号无法进入
  • 怎么网站关键词语有哪些
  • 网站建设 维护费用环球易购招聘网站建设
  • 怎么做网站官方电话手机应用开发平台
  • 济南企业免费建站剪辑视频怎么学
  • 手表网站免费设计上海做网站制作