wordpress 多语言 站点,中国最好的营销策划公司,学网站建设 赚钱,做视频网站怎么赚钱的文章目录 前言0、论文摘要一、Introduction1.1目标问题1.2相关的尝试1.3本文贡献 二.相关工作三.本文方法3.1 总结为两阶段学习3.1.1 基础系统 3.2 重构文本摘要 四 实验效果4.1数据集4.2 对比模型4.3实施细节4.4评估指标4.5 实验结果4.6 细粒度分析 五 总结思考 前言 XAI-Base… 文章目录 前言0、论文摘要一、Introduction1.1目标问题1.2相关的尝试1.3本文贡献 二.相关工作三.本文方法3.1 总结为两阶段学习3.1.1 基础系统 3.2 重构文本摘要 四 实验效果4.1数据集4.2 对比模型4.3实施细节4.4评估指标4.5 实验结果4.6 细粒度分析 五 总结思考 前言 XAI-Based Reinforcement Learning Approach for Text Summarization of Social IoT-Based Content22040、论文摘要
自动文本摘要技术的目的是压缩给定的文本同时在摘要中正确地描绘原始文本中的主要信息。另一方面目前的生成文本摘要方法在构建摘要句子时重构原始语言并引入新单词这很容易导致不连贯和可读性差。 这项研究提出了一种基于 XAI可解释人工智能的强化学习使用强化学习对基于社交物联网的内容进行文本摘要。此 外基于标记数据来提高摘要句子连贯性的标准监督训练具有巨大的数据成本这限制了实际应用。为了做到这一点提出了一种基于真实情况的文本摘要生成模型XAI-RL以增强连贯性。 一方面根据原文的编码结果生成句子提取标识符描述原文重要信息的筛选过程。在确定两种类型摘要文章的整体效益后自判断方法梯度帮助模型学习关键句子选择并解码所选关键短语从而产生句子连贯性高、内容质量好的摘要文本。 实验表明即使没有预先注释的摘要事实该模型的摘要内容索引总体上优于文本摘要方式信息冗余、词汇原创性和抽象复杂性也优于当前方法。
一、Introduction
1.1目标问题
随着互联网的快速发展网络中蕴藏着海量的基础、形式多样的数据内容。从中快速定位关键信息是高效信息检索的首要问题。对于文本数据来说自动文摘技术可以从给定的语料库中提取出核心内容并用相对概括的文本来描述原文的主要内容有利于降低文本数据的存储成本是提高文本数据质量的必要手段。文本数据检索的效率。对于进一步实现信息集成具有重要的现实意义和应用价值。 现有的自动文本摘要方法可以直接从原始文本中选择基本句子或段落并通过句子提取生成摘要文本[1]。生成文本摘要方法已成为文本摘要领域的研究热点[2]。一般来说生成文本摘要方法首先对给定的原始文本进行编码获得可以从词和句子层面覆盖原始文本信息的向量嵌入表示。最后对上述特征码进行解码即根据解码结果从给定的语言词典中选择相应的词汇形成摘要文本。最后将原文以文本形式重新表达。可以看出与提取方法相比生成文本摘要的实现更为复杂。尽管如此它产生的摘要文本词汇表达更加灵活和丰富浓缩原文关键信息的效果也更加理想[3]。 但面临的问题是生成式文本摘要方法需要经过原文编码、编码解析、特征解码等过程组织词汇量更丰富的句子来传达原文因此很容易导致生成的摘要句子的连贯性。此外当前的生成式文本摘要方法涉及人工注释摘要以进行监督训练[3]导致现有的生成式文本摘要方法经常面临问题。由于宝贵资源的稀缺仅依靠预先句子连贯性较强的“摘要真值”并根据监督训练的方法来提高模型生成的摘要的句子连贯性在实际中可能存在很大阻力。应用[4]。因此本文在生成文本摘要模型的基础上寻求一种无需干预即可提高摘要生成模型句子连贯性的有效机制。 具体来说一方面在摘要文本生成阶段编码器模块A首先对给定的源文档source document进行编码得到原始文本的嵌入表示在此基础上进一步使用连贯性测量模块模块Be Transformer-XL [5]编码器对原文的嵌入表示进行编码解析上下文相关的内容特征并设置一个“关键句分类层” ”位于连贯性测量模块的顶部生成句子提取标识符过滤掉或成为关键句子编码结果描述通过连贯性测量模块从原文中提取关键句子的过程最后解码器模块C基于一致性测量模块输出的关键句编码。并生成“提取”的关键句子的解码结果即原始词汇分布。 另一方面在句子连贯性增强阶段模型XAI-RL首先获得前一级解码器模块C输出的原始词汇分布并通过“按概率选择”和“按概率选择”生成两种类型的摘要文本。 Softmax-greedy”两种类型的摘要由编码器模块 A重新编码之后由一致性测量模块(模块B)解析两类摘要的重编码结果由一致性测量模块(模块B)解析两类摘要的重编码结果。 )e语义片段segment[5]的循环自注意力权重作为摘要句的连贯性效益将生成的摘要文本的ROUGE[6]得分和“伪摘要真值”作为摘要句子的内容收益从而通过连贯性测量模块将上述两项收益相加计算出两种类型摘要文本各自的总体优势这里“伪摘要的真实值”是通过ROUGE评分从原文中提取的最优句子集。其次构建两类摘要的“交叉熵损失”采用XAI-Based强化学习中的“自我批评策略梯度”[7]并利用两类摘要的“总体回报差异”奖励或奖励模型参数梯度。 Penalty是迫使“Softmax-贪婪选择”生成的摘要的整体恢复接近“概率选择”生成的摘要的整体恢复并通过“概率探索”提高“Softmax-贪婪选择”的总体基线水平”然后在句子连贯性和句子内容方面提高 XAI-RL 生成的摘要文本的模型值。最终在没有抽象真值介入的情况下生成句子连贯性高、内容质量好的抽象文本。
1.2相关的尝试
1.3本文贡献
总之我们的贡献如下 综上所述本文提出了一种面向连贯性增强的无真值文本摘要模型XAI-RL该模型结合“提取和生成”根据从原文中提取的关键句子集生成摘要内容。同时通过对最初生成的摘要文本进行重新编码、连贯性和内容收益计算基于解码器的实际词汇分布得到“通过概率选择”与“通过Softmax-贪婪选择”进行比较。 “获得优势”通过最大化这种“利润优势”来指导模型梯度更新以生成具有更高句子连贯性的摘要文本。实验结果表明即使在仅给定原文的限制下XAI-RL模型的ROUGE[6]和METEOR[8]评分指标总体上仍然优于现有的文本摘要方法。摘要文本在句子连贯性、内容重要性、信息冗余、词汇新颖性和摘要困惑度方面也优于现有方法。
二.相关工作
目前基于“编码-解码”思想的序列到序列Seq2Seq结构是处理生成文本摘要任务的主要方法[3]。传统Seq2Seq结构中的编码器和解码器通常使用循环神经网络RNN[9]、长短期记忆LSTM[10]和双向长短期记忆Bi-LSTM [11]为了生成句子质量更好的摘要文本许多学者对上述摘要和基于循环神经网络及其变体的生成模型进行了相关改进。 作者[12]提出了一种分层编码器可以从单词和片段两个级别捕获输入文本的语篇结构并将语篇结构特征注入解码器以协助解码器生成摘要文本。高 ROUGE 分数是在开发学术论文摘要的任务上取得了成就。作者[13]在解码器端引入了解码器内注意力机制即在解码第t位时观察解码结果的前t-1位注意力权重防止解码器生成重复内容这有效减少摘要文本句子内容的冗余同时本文结合Teacher Forcing算法[14]和自判断策略梯度[7]构建了混合XAIBased强化学习目标使得模型在处理原始文本时有效避免暴露偏差并生成摘要文本评价准确度高。作者[15]首先将输入的原始文本分为多个片段并基于Bi-LSTM模型构建多个代理之后每个智能体解析分配的元素并根据多智能体通信机制在智能体之间传输该部分的解析结果最终形成原文的“全局观察”定义为“全局观察” ”根据“编码-解码”的思想生成摘要文本。 尽管上述模型在摘要生成的准确性方面取得了提高但循环神经网络及其变体都是基于时间步的序列结构这严重阻碍了模型的并行训练[16-18]导致推理能力下降。过程受到内存的限制导致摘要生成模型的编码和解码速度降低并增加训练开销[19-23]。另一方面上述工作优化模型以最大化ROUGE指数或最大似然而不考虑摘要句子的连贯性或流畅性[24-26]并依赖于预先注释的摘要文本的ground-truth值。在有监督训练的情况下模型训练所涉及的数据成本很高。 因此需要进一步改进基于循环神经网络及其变体的摘要生成模型[27-29]。 关于摘要句子连贯性的工作还包括作者通过对原始文本进行编码、解码和重新编码来优化模型构建摘要相似性损失和文本重建损失。一个好的语言模型会计算生成的摘要文本的负对数似然来衡量句子的连贯性作者使用BERTSCORE指标构建分布式语义增益并将支付与自判断策略梯度相结合来评估模型优化。人类评估结果表明这种好处可以使模型摘要更加连贯作者在预训练解码器后通过在句子级别应用优势演员评论家 (A2C) 来优化提取器以确保模型解释正确的关键句子以生成连贯且流畅的摘要 [30, 31]。 上述模型优化了摘要的连贯性以最大限度地减少生成的摘要文本的复杂性。但值得注意的是现有作品在评估摘要句子的连贯性时均采用人工评估方法。 摘要生成模型中缺乏自动测量句子连贯性的机制或过程[32-34]。综上所述当前的生成文本摘要方法应满足或解决以下问题第一能够根据给定的原文生成连贯且可读性强的摘要文本对生成的摘要句子进行自动一致性测量的处理机制第三应尽量减少模型训练过程中摘要真实数据的标签依赖性以降低模型训练成本[35-37]。
三.本文方法
3.1 总结为两阶段学习
3.1.1 基础系统
3.2 重构文本摘要
四 实验效果
这一章对本文提出的用于增强连贯性的依赖于事实的文本摘要模型XAI-RL进行了一系列实验分析并讨论了该模型在摘要生成过程和摘要生成质量方面的有效性。 论文使用Python 3.7和Tensorflow-1.15来实现模型实验运行环境为GPUNVIDIA GeForceGTX 1080Ti11 GB。
4.1数据集
首先本文使用两个典型的自动文本摘要数据集 CNN/Daily Mail 和 XSum 进行实验[41, 42]。 它们都使用新闻报道作为文本数据并包含相应的“黄金标准”摘要事实文档。本文将原始数据集分为训练集、验证集和测试集。 训练集用于模型训练验证集用于模型参数选择测试集用于模型评估。特别是“黄金标准”摘要确实不参与模型XAI-RL训练过程仅用于摘要生成质量评估。如表1所示CNN/Daily Mail中原文和摘要文本的平均长度大于XSum XSum 是人类编写的作为概念真值的句子。与 CNN/DailyMail 相比XSum 中的 groundtruth 的新颖性更高并且包含更多原文中未出现的单词。 其次在模型设置方面设词向量维度为E隐藏层单元数量为H自注意力头数量为A前馈层维度大小为FXAI-RL模型采用ALBERTlarge[30]E 128H 1.024A 16F 4.096作为编码器相干性度量模块由L 3层Transformer-XL编码器组成E 1.024H 2.048A 32F 4.096解码器由 R 6 Transformer-XL 解码器组成E 1.024H 2.048A 32F 4.096。在摘要文本生成阶段使用宽度为4的束搜索算法进行词汇选择。 生成摘要的最大长度由原始文档和摘要文档在数据集中的平均压缩比文档长度的比率决定并且丢弃的词数较低。在第3句中相干性度量模块和解码器采用Adam优化器[19]学习率分别为1E-3和0.05。 )e 两者的学习率都随着迭代次数的增加而降低。 e个batch样本数batch_size即输入文本集D的大小为16。在句子连贯性增强阶段β1 0.3和β2 0.2取自式6所示的文本内容收益式6的总收入中c 0.7。当使用 CNN/Daily Mail 数据集训练模型时输入文本集 D 在一次迭代中取前 M8 个最优记录用于一致性增强阶段的“体验回放”当用XSum训练时D在一次迭代中取前M4个最优记录。
4.2 对比模型
)en在比较方法方面本文提出的摘要生成模型XAI-RL与现有的提取式和生成式自动摘要方法进行了比较。其中对于提取方法使用了MMS_Text、SummaRuNNer和HSSAS对于生成方法Pointer-Generator Coverage、Bottom-up、DCA深度通信代理、BERTSUMEXTABS 和 PEGASUS。
4.3实施细节
4.4评估指标
最后对于评价指标本文采用ROUGE-N[6]包括ROUGE-1和ROUGE-2式12、ROUGE-L式13和METEOR[8]式14 。 )e指标评估生成文本的内容质量同时配合人工评估从句子连贯性、内容冗余度、内容重要性等方面评估相关模型生成的摘要文本。这里在ROUGE-N中n表示n-gramn-gram的长度{RS}表示参考摘要Countmatchgrain表示生成的摘要中与参考摘要中相同的n-gram数量Count(grain) 是参考摘要中 n 元语法的总数。 ROUGE-L中X为生成摘要Y为参考摘要LCS(X,Y)表示生成摘要与参考摘要之间的最长公共子序列的长度m为展开摘要长度n为参考摘要长度 METEOR中m为生成摘要中与参考摘要匹配的元组数量r为连接摘要长度c为展开摘要长度α、c、β为平衡参数dh为生成概念和参考摘要公共子序列的数量。
4.5 实验结果
为了探索XAI-RL模型中不同模块对实验结果的影响本文实现了如表2所示的六种烧蚀组合。具体来说组合1使用模块AAL-BERT编码器和模块B相干性度量模块仅Transformer-XL编码器进行编码而没有可替换的顶层进行编码然后使用模块C解码器进行编码和解码以产生摘要。组合2在组合1的基础上向模块B添加了一个sigmoid分类层其目的是对文本编码表示进行关键句子选择然后生成摘要。组合3与组合2结构相同但预训练了模块B特别地上述三种组合都是使用训练集“金标准”作为ground Truth的监督训练。最后组合4采用组合3的结构。除了预训练模块B之外仅通过最大化相干增益来进行相干增强。在强化过程中将提取的伪摘要作为替代真值组合5与组合4类似只是通过最大化内容收益来增强连贯性组合6是图1中完整的XAI-RL模型仍然使用提取的伪摘要作为替代真值。 CNN/Daily Mail 和 XSum 验证集评估了上述六种烧蚀组合。 )e实验结果如表3和表4以及图3和图4所示。 首先组合2的评估结果优于组合1这表明在模块B提取关键句子后解码器可以解码关键内容并生成更高质量的摘要。其次组合3优于组合2说明预训练可以使模块B的参数配置更加合理进而更加合理地选择关键句子。 )en组合4和组合5的评价结果优于组合3表明本文构建的收益和句子连贯性增强方法能够有效提高摘要内容的质量。特别是组合4的ROUGE-L和METEOR指标优于组合3体现了本文通过连贯性测量和强化对句子连贯性的提升。最后所有机制6的组合具有最佳评估结果反映了所提出的模型XAI-RL的每个模块在摘要生成中的有效性。 综上所述对于XAI-RL模型首先通过比较组合二和组合三可以发现通过伪摘要对连贯性测量模块进行预训练后可以更好地从组合二和组合三中识别出有意义的句子和上下文语义信息。文本编码表示为解码器提供语义基准和辅助输入生成能够准确概括原文主要思想的摘要内容其次通过比较组合三和组合四可以发现self.
4.6 细粒度分析
4.3. XAI-RL 模型与现有文本摘要模型的比较。在本节中XAI-RL模型的准确性与测试集上现有的提取和生成方法进行比较以评估其摘要生成质量。首先XAI-RL模型的评估结果3次平均值以及在CNN/Daily Mail数据集上的比较方法如表5所示ROUGEAVG是ROUGE-1、ROUGE-2和ROUGE-的平均值L。一方面如图5所示XAI-RL模型的评估结果普遍优于现有的提取方法。 模型在ROUGE-1和ROUGE-2指标上优于其他基于提取的基线模型表明其能够有效获取原始受试者信息。 五 总结
利用自动文本摘要技术浓缩文本核心内容是降低文本数据存储成本、提高信息检索效率的必要手段。为了快速生成高质量且可读的文本摘要同时避免模型训练的真实依赖本文提出的基于 XAI-RL 的连贯性增强文本摘要模型XAI-RL利用注意力机制的 Transformer-XL 来构建一致性测量模块并使用提取的伪摘要对其进行预训练可以有效地识别和去除重要的文本信息。此外它可以在重编码过程中自动衡量生成摘要的连贯性并产生文本连贯性效益可以将其引入到模型的连贯性增强过程中从而可以促进模型生成更接近原始主题更具可读性的摘要内容。实验表明在多组实验中结合相干性度量和相干性增强的XAI-RL模型的评估精度优于其他现有方法。 本文未来的工作将进一步提高自注意力权重在相干性测量上的有效性。通过构建各种测量方法从多个角度考虑语义连接、语法规则性和共指消歧等连贯性因素以提高下一代模型的句子连贯性。 同时其在ROUGE-L和METEOR指标上的得分高于其他基于提取的基线模型这表明该模型在释义获取的重要句子时能够保证生成句子的连贯性。对比提取方法MMS_Text、SummaRuNNer、Refresh、HSSAS的核心思想可以概括为三类一是将文本转化为图结构如MMS_Text通过对节点句子进行评分来提取本质形成摘要文本的句子二是通过编码器挖掘读者的潜在特征按照概率矩阵或句子排列的顺序提取摘要句子例如SummaRuNNer和HSSAS。第三是使用基于XAI的强化学习来构建质量增益并在更新句子选择策略以最大化利润后从原始文档中提取摘要文本例如Refresh。然而对于本文提出的XAIRL模型来说其核心思想是“先提取后生成”。 模型的连贯性测量模块可以在预训练后识别并提取原文中的关键句子从而提示解码器关注实际内容。另外在解码和生成时XAI-RL模型向解码器输出包含上下文语义的辅助信息H进一步丰富了模型内部的文本特征信息最终使得模型XAI-RL生成的摘要文本的质量强化学习优于“单一”提取模型。另一方面如图6b所示XAI-RL模型与现有的生成方法Pointer-Generator Coverage [11]、Bottom-up、DCA [15]、BERTSUMEXTABS [19]和PEGASUS并且总体上也取得了更好的精度。 )e模型在ROUGE-1和ROUGE-2指标上优于其他生成基线模型表明它可以正确地解释原始文本消息。同时其在 ROUGE-L 和 METEOR 指标上的得分均高于其他生成基线模型这表明该模型更能够生成连贯且流畅的摘要内容。其性能提升可以归因于首先在开发摘要方面如图2所示模型XAI-RL基于预训练组件如AL-BERT编码器和预训练相干性测量模块并且进一步使用文本编码结果。 )e语义段是划分单元由L3layer Transformer-XL组件通过基于语义段的循环自注意力机制进行额外编码以增加特征解析的强度。其次在图4所示的连贯性增强过程中模型XAI-RL对生成的摘要文本进行重新编码以计算连贯性增益同时使用提取的伪摘要创建摘要通过最大化两者来计算内容增益。 收入的加权总和增强了模型摘要文本生成过程。此外它从内容和句子连贯性水平提高了模型文本生成质量。 其次XAI-RL模型和对比方法在XSum数据集上的评估结果3次平均值如表6所示相应的直方图如图6所示。总体而言模型仍然达到了最优结果。特别是XSum 数据集仅用于测试生成方法因为它具有与“黄金标准”摘要相对应的高度新颖性。表6和图6的结果进一步说明了模型XAIRL所遵循的“先提取后生成”的设计原则基于语义分段的循环自注意力权重以及基于内容效益和连贯效益的强化过程可以有效提高摘要生成质量。
思考