建网站多少钱 万户,项目管理软件手机版,文山州住房和城乡建设局网站,网页设计期末作业代码本文转载自公众号#xff1a;PaperWeekly。 本期的论文笔记来自 PaperWeekly 社区用户 britin。本文给出了一种 end-to-end 的系统来自动将 NL 问题转换成 SPARQL 查询语言。作者综合了实体识别以及距离监督和 learning-to-rank 技术#xff0c;使得 QA 系统的精度提高了不少… 本文转载自公众号PaperWeekly。 本期的论文笔记来自 PaperWeekly 社区用户 britin。本文给出了一种 end-to-end 的系统来自动将 NL 问题转换成 SPARQL 查询语言。作者综合了实体识别以及距离监督和 learning-to-rank 技术使得 QA 系统的精度提高了不少整个过程介绍比较详细模型可靠接地气。关于作者Britin中科院物理学硕士研究方向为自然语言处理和计算机视觉。■ 论文 | More Accurate Question Answering on Freebase■ 链接 | https://www.paperweekly.site/papers/1356■ 源码 | https://github.com/ad-freiburg/aqqu论文动机在知识问答中要把一个自然语言的问句映射到知识库 KB 中是很难的目前的问答系统通常是将 NLP 问句转换成一个 SPARQL 查询语句去检索 KB。如何完成这一转换过程面临着很多问题比如怎么在 KB 中找到和问句中匹配的实体与关系。首先问题中的实体名可能不完全依照数据库中的名称同一个实体有多种叫法。其次数据库中多个实体对应的名称可能是一样的。比如 Freebase 里叫 apple 的就有 218 种实体。精确匹配的话很难找到答案模糊匹配又会从大型数据库中搜索到冗余的数据。本文在学习算法基础上采用了 learning-to-rank 来重点关注被大部分工作忽略掉的实体识别的问题。模型介绍本文要完成的任务是根据 KB 知识来回答自然语言问题给出了一个叫 Aqqu 的系统首先为问题生成一些备选 query然后使用学习到的模型来对这些备选 query 进行排名返回排名最高的 query整个流程如下 比如要回答这个问题What character does Ellen play in finding Nemo? 1. Entity Identification 实体识别 首先在 KB 中找到和问句中名词匹配置信度较高的实体集合因为问句中的 Ellenfinding Nemo 表达并不明确会匹配到 KB 中的多个实体。 先用 Stanford Tagger 进行词性标注。然后根据词性挑出可能是实体的词与 KB 进行匹配利用了 CrossWikis 数据集匹配到名称相似或别名相似的实体并进行相似度评分和词语流行度评分。 2. Template Matching 模板匹配 这一步对上一步得到的候选实体在数据库中进行查询然后利用三种模板生成多个候选 query。三种模板和示例如图所示3. Relation Matching 关系匹配 这一步将候选 query 中的 relation 与问句中剩下的不是实体的词进行匹配分别从 LiteralDerivationSynonym 和 Context 四个角度进行匹配。 Literal 是字面匹配Derivation 利用 WordNet 进行衍生词匹配Synonym 利用 word2vec匹配同义词。Context 则是从 wiki 中找出和 relation 匹配的句子然后利用这些句子计算原问句中的词语和这些 relation 匹配出现的概率采用 tf-idf 算法。 4. Answer Type Matching 答案类型匹配 这里采用了较为简洁的方法将 relation 连接的对象类型和问句中的疑问词匹配比如 when 应该和类型为日期的对象匹配。 5. Candidate Features 人工设计的特征实体匹配的特征1备选 query 中实体的个数2字面大部分匹配的实体个数3实体中匹配的token的数量4-5实体匹配概率的平均值和总和6-7实体匹配流行度的平均值和总和关系匹配的特征8匹配模板中的关系个数9字面匹配的关系个数10-13分别在 literalderivationsynonym 和 context 四个角度匹配的 token 个数14同义词匹配总分15关系上下文匹配总分16答案的 relation 在 KB 中出现的次数17n-gram 特征匹配度 综合特征18特征 3 和 10 的总和19问句中匹配到实体或关系的词所占比重20-22二进制结果大小为 0 或 1-20 或大于 2023答案类型匹配的二元结果6. Ranking 本文采用了基于 learning-to-ranking 的方法根据上述特征对备选结果进行 ranking。作者使用了 pairwise ranking针对两个备选的 query预测哪一个评分更高然后取胜出最多的那个。 分类器采用了 logistic regression 和 random forest。实验结果本文使用 Freebase 作为 KB但对于 WikiData 同样有效。 数据集使用了 Free917 和 WebQuestions。前者手动编写了覆盖 81 个 domain 的自然语言问句语法准确每个问句都对应一条 SPARQL 语句用它可以在 KB 中查到标准答案。训练集和测试集比例为 7:3。WebQuestions 包含 5810 条从 Google Suggest API 上爬下来的问句和 Free917 不同的是它比较口语化语法不一定准确并且问题覆盖的领域多为 Google 上被问到最多的领域。答案是用众包生成的噪声较大训练集和测试集比例为 7:3。和 SempreGraphParser 等结果较好的模型比较了 accuracy 和 F1 score结果如下文章还分析了每个特征对系统可靠性的影响对于 80% 的查询正确答案都能出现在 Top-5 里。文章评价本文给出了一种 end-to-end 的系统来自动将 NL 问题转换成 SPARQL 查询语言。系统综合了实体识别以及距离监督和 learning-to-rank 技术。设计的特征非常具体丰富比以往的模型准确度高了不少。并且据说程序运行效率也很好一秒就能回答出一个问题。系统的准确虽然不是特别高但在 Top-5 内的准确度很高如果加上交互式问答的形式结果可能就会改善。本文没有采用深度学习的方法采用的是统计学习的方法并且手动设计了特征人工代价比较高对数据集的要求和质量较高。 -End-关于PaperWeeklyPaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。OpenKG.CN中文开放知识图谱简称OpenKG.CN旨在促进中文知识图谱数据的开放与互联促进知识图谱和语义技术的普及和广泛应用。点击阅读原文进入 OpenKG 博客。