内容算法解读:提高内容摘要与原文的一致性(Faithfulness)

news2025/1/13 15:51:15

全文摘要:受益于预训练语言模型的发展,应用神经网络模型提取内容摘要的技术也获得了长足进步。但目前还存在一个未被很好解决的问题:神经网络模型提取的摘要不能如实反映原文档的中心思想,没有做到忠实(not faithful)。可能的原因有两个,1)摘要模型未能理解或者抓取输入文档内容的要点;2)摘要模型过度依赖语言模型,产生了流畅但不达意的词语。本文提出了一个忠实度增强摘要模型,克服上述两个问题,并尽可能贴切地表达出原文的中心思想。针对存在的第一个问题,采用QA(question-answering)来评估编码器是否完全掌握了输入文档内容,并能够回答有关输入内容中关键信息的问题。这个对正确的输入词语保持注意力的QA系统也用于规定解码器应该怎么反映输入内容源。对于第二个问题,本文引入了语言模型和摘要模型之间差异的最大边际损失函数,以防语言模型的过度拟合。在CNN/DM和XSum这两个基准数据集上的实验表明,本文提出的模型效果显著优于比较的基准模型。一致性的评估也表明本文提出的模型能得到更加贴切的内容摘要。

背景概述

        研究【1,2】指出很多内容摘要模型有不能如实反映原文思想的问题。Durmus等人【3】强调了摘要不能忠于原文的两种表现形式:1)内在因素,即篡改输入文档的信息;2)外在因素,即包含原文没有阐述的信息。篡改原文常常是由于摘要模型理解错了原文档,既有可能是Encoder部分没有理解到原文的语义信息,也有可能是Decoder部分无法从Encode部分获取相关和一致性的信息。增加多余信息是由于预训练语言模型的过度注意机制,导致了生成的摘要虽然流畅却不遵从原文。例如,预训练语言模型倾向于生成常见的的短语“score the winner(记录胜利者)”,而原文中正确的短语是使用较少的“score the second highest(记录次高分者)”。这种类型的错误在当前的摘要提取任务中还没有考虑到,但在神经网络机器翻译NMT任务【4】中已经进行了研究。

        基于以上观察和原因分析,本文提出了一个忠实度增强摘要模型(Faithfulness Enhanced Summarization model,FES)。为了防止篡改原文问题,忠实度增强摘要模型FES中设计了多任务学习模式,一个完成摘要提取的编解码器任务和一个基于QA系统的忠实度评估任务。QA系统增加了编码器的额外推理要求,需要对输入文档的关键语义有更全面的理解,并且能学习到比单纯的概述更好的表示。同时QA对原文中关键实体的注意力使解码器和编码器的输出一致,从而让生成的摘要保持忠实度。第二,为了处理针对原文的无中生有问题,本文提出了一个最大边际损失函数来防止预训练语言模型过度拟合。详细来说,本文定义了一个判定预训练语言模型过度程度的指标。通过最小化这个程度指标,缓解了‘摘要提取无中生有’产生内容的风险。

        通过在公共数据集CNN/DM【5】和XSum【6】上的大量实验证明了本文提出的忠实度增强摘要模型FES的有效性。实验结果也表明,本文模型FES在ROUGE评分上有更好的效果,而且对比几个新闻摘要生成基线模型也提高了忠实度。

研究方法

1、问题描述

        设一系列输入文档X=\{x_1, ...,x_{n_x}\},对应的真实摘要为Y=\{y_1, ..., y_{n_y}\}。令n_q个问答对Q=\{Q^1, ..., Q^{n_q}\}A=\{A_1, ..., A^{n_q}\}。在训练阶段,模型的输入为问答对QA和文档-摘要对XY。模型最优化提取问题的答案A和生成摘要Y。在测试阶段,给定文档X和问题Q,推理摘要和答案。最终生成一个总结原文并与原文信息一致的摘要。

        接下来,详细拆解本文提出的模型FES。该模型基于Transformer【7】,分成3个子构件。1)多任务编码multi-task Encoder:通过添加的QA系统来检测文档编码表示的质量,提高了对输入文档的语义理解。因此编码器能捕捉到关键输入信息,从而做出忠实行的内容摘要。2)QA注意力增强解码器:来自多任务编码器的注意力能使解码器与编码器对齐,以便解码器能够获取更加准确的输入信息来生成摘要。3)最大边际损失函数:这个损失函数跟模型的最后输出损失函数是正交的,只反映预训练语言模型的准确性,用于克服摘要生成过程中的预训练语言模型的过度拟合。

2、多任务编码器

        在摘要提取和QA联合训练阶段,多任务编码器对输入文档进行编码(图1(b))。不同于此前研究【2,3】将QA系统用于后处理来评估生成摘要的忠实度(图1(a))。本文让QA系统更接近编码器,并让编码器同时完成QA和内容摘要任务的训练。这种多任务编码器的联合训练,除了考虑摘要生成的质量,也将忠实度作为训练优化目标。QA系统中的答案A来自输入文档中的关键实体,因此QA问答对能注意到输入文档中的关键信息。

图1

        如下图2所示,本文采用经典的Transformer体系结构获取文档X和问题Q的token级别表示,记为\bold{H}_w{\in}\mathbb{R}^{n_w{\times}d_e}\bold{H}_u{\in}\mathbb{R}^{n_q{\times}t_q{\times}d_e},其中n_w表示文档中的token数目,n_q表示问题数目,t_q表示一个问题中的token数目,d_e表示特征维度数。最终的编码器能从实体级、句子级、问题级理解问题和输入文档。

图2

        本文通过不同的粒度表示学习来构建编码器。实体包含紧密和显著的文档信息,也是阅读理解问答的主要关注点,所以本文采用实体作为基本语义单元。由于每个问题一般很短,所以每个问题都会创建一个节点。从问题到句子和从句子到实体也都构建了双向边。这些节点作为句子与句子间的中介,丰富了跨句子间的关系。初始的有向边不足以学习到反向信息,本文添加了反向边和自环边。采用标记token级和词跨度级的均值池化处理来初始化节点表示【8】。给定构建好包含节点特征的图,本文用图注意力网络(Graph Attention Networks,GAT【9】)更新图中的语义节点表示。令\widetilde{h}_i{\in}\mathbb{R}^{d_e}i{\in}{\{1, ..., (n_e+n_s+n_q)\}}为输入节点的隐状态,其中n_en_sn_q分别表示实体节点、句子节点、问题节点的数目。GAT层设计如下:

z_{ij}=LeakyReLU(W_a[W_b\widetilde{h}_i;W_c\widetilde{h}_j])a_{ij}=\frac{exp(z_{ij})}{\Sigma_{l{\in}\mathcal{N}_i}exp(z_{il})}l_i=\sigma(\Sigma_{j{\in}\mathcal{N}_i}a_{ij}W_d\widetilde{h}_j)

        其中\mathcal{N}_i表示节点i的邻居节点集,W_aW_bW_cW_d分别表示训练参数,a_{ij}表示\widetilde{h}_i\widetilde{h}_j间的注意力权重。迭代几轮后再增加一个残差连接h_i=\widetilde{h}_i+l_i避免梯度迷失。通过迭代这个GAT层和位置感知前馈层(position-wise feed-forward layer【7】)来更新各个节点的表示。输出实体特征矩阵、句子特征矩阵、问题矩阵分别表示为\bold{H}_e{\in}\mathbb{R}^{n_e{\times}d_e}\bold{H}_s{\in}\mathbb{R}^{n_s{\times}d_e}\bold{H}_q{\in}\mathbb{R}^{n_q{\times}d_e}

        在融合问题和文档信息之后,就可以从文档中选择实体作为问题的答案。具体来说,在问题和图中的实体间应用多头交叉注意力机制(Multi-head Cross Attention,MHAtt)h_{qe}^i=MHAtt(h_e^i,\bold{H}_q,\bold{H}_q),其中i表示问题索引,来获得问题感知的实体表示。在此基础上,本文应用前馈网络(Feed-Forward Network,FFN)来产生实体的抽取概率A_i=FFN(h_{qe}^i),其中A_i=(a_1^i, ..., a_{n_e}^i)。那么QA的目标就是最大化所有实体的真值\hat{a}概率:

\mathcal{L}_c=\Sigma_{i=1}^{n_q}\Sigma_{j=1}^{n_e}P(\hat{a}_i^j).

3、QA注意力强化的解码器

        做到忠实性的解码器需要关注并抓住编码器中的重要信息。从上节可以看到,关键实体上的QA注意力表明了哪些实体需要在最终的摘要中包含。也就是说,本文的摘要生成通过QA注意力进行了增强。解码器的状态通过实体这个中介关联到编码器的状态,其中实体级别的注意力由QA注意力引导。具体来说,对于每一层,在第t步解码上,于掩码摘要嵌入\bold{E}上利用自注意力机制获取u_t。掩码机制确保了位置t上的预测仅取决于t之前的输出。基于u_t计算实体交叉注意力得分c_t^e

u_t=MHAtt(e_t,\bold{E}_{<t},\bold{E}_{<t}),c_t^e=MHAtt(u_t,\bold{H}_e,\bold{H}_e).

        实际上,第一注意力层捕获解码序列的上下文特征,而第二注意力层将实体信息进行了并入。这里定义最小化,第t步的QA注意力A_i和实体上的摘要注意力E_t间的双向Kullback-Leibler(KL)散度为:

\mathcal{L}_{KL}=\mathcal{D}_{KL}(\Sigma_{i=1}^{n_q}A^i||\Sigma_{t=1}^{n_y}E_t),

        来让摘要模型学习到哪些实体是重要的。其中n_y表示真实摘要中的token数目。这个目标引导交叉注意力捕捉正确的上下文信息,而不是只学习QA注意力分布。为了避免产生对QA任务的“overfitting”,本文只在注意力头部部分使用该目标。然后使用实体级注意力来引导选择与关键实体相关的源token,在源词语序列\bold{H}_wc_t^e上利用如下的MHAtt层:

v_t=MHAtt(c_t^e,\bold{H}_w,\bold{H}_w).

        该上下文向量v_t,是各种源的显著内容摘要体现,被发送到以产生目标词汇表上的分布:

P_t=Softmax(FFN(v_t)).

        通过优化预测目标词的负对数似然目标函数来更新所有的在学习参数:

\mathcal{L}_{s}=-\Sigma_{t=1}^{n_y}logP_t(y_t).

4、最大边际损失函数

        先前的工作【10,11】表明,信息不足的解码器会忽略一些源片段,定义成一个开放式的预训练语言模型容易出现外部错误,即添加多余额外信息。受到忠实度增强机器翻译工作的启发,本文在摘要生产中引入了最大边际损失函数,用于最大化摘要每个标记token的预测概率与预训练语言模型LM的差异,如图3所示。这个损失函数能抑制摘要生成通用到不忠实的内容。具体来说,本文首先定义摘要和预训练语言模型LM的边际损失作为预测概率的差:

m_t=P_t(y_t|y_{<t},X)-P_t^{LM}(y_t|y_{<t}),

        上式中X为输入的文档,P_t^{LM}为第t个标记token的预测概率。这里要注意的是语言模型并不直接使用输入文档,使用的是解码的摘要前缀。如果m_t的值较大时,摘要模型的效果就会优于预训练语言模型。而m_t较小时,会出现两种情况:一是摘要模型和预训练语言模型的效果都较好,所以两者的预测概率相近;另一种情况是预训练语言模型出现了过拟合,导致摘要的效果较差。

图3

        因此,本文在最大边际损失函数里加入一个系数:

\mathcal{L}_{m}=\Sigma_{t=1}^{n_y}(1-P_t)(1-m_t^5)/2,

        上式中P_tP_t(y_t|y_{<t},X)的缩写。(1-m_t^5)/2是关于m_t的非线性单调递减函数,用来保证最大化m_t能取得最优值。这里用了五次方函数,采用了其中的稳定性【12】。第一项(1-P_t)是用来平衡前一个公式中的两个概率。当P_t更大时,摘要模型能很好的学习到y_t,此时不需要太关注m_t。这也反应在了(1-P_t),此时m_t的系数就较小。当P_t较小时,意味着摘要需要继续迭代优化,此时较大的系数(1-P_t)保证了模型能够从边际信息中学习优化。

        上述4个损失函数,\mathcal{L}_{c}\mathcal{L}_{s}\mathcal{L}_{KL}\mathcal{L}_{m},相互间是正交的,所以可以进行组合来优化摘要忠实性。

实验验证

1、实验设置

        本文为了证明所提方法的有效性,选取了两个在摘要生产领域广泛使用的公开数据集,CNN/DM和XSum。这两个数据集都是新闻类内容,包含了大量事件、实体及关系,能够测试摘要模型的事实阐述一致性。从上文'研究方法'这节可以看到,摘要模型中还加入了一个问答QA任务。所需要的问答对是通过QuestEval【2】这个工具预先生成的。最终本文为CNN/DM选取了38个QA对,为XSum选取了27个QA对。在训练数据集中,选取了具有最高ROUGE分的QA对作为输入。

        本文选取如下模型作为比较基线:(1)FASum【13】是一个通过图注意提取和集成文章描述到摘要生成过程中的模型;(2)CLIFF【14】利用参考摘要作为正样本,错误摘要作为负样本训练摘要模型;(3)BART【15】是最近的一个以去噪自动编码为目标的摘要生成预训练模型;(4)PEGASUS【16】是一个基于Transformer的大型预训练编码器-解码器摘要生成模型;(5)GSum【17】是一个能利用外部句子作为引导的摘要生成框架;(6)SimCLS【18】利用无引用评估(reference-free)来弥合学习目标与评估指标之间的差距。

        实现过程:整个实验在Huggingface【19】上进行,采用了4块NVIDIA A100 GPUs。超参数是参考BART(Facebook/bart-large)和PEGASUS(Google/pegasus-xsum)。QA设置了8对。为了避免模型学到实体或者问题的位置信息,将实体和问题按字母序排列。优化器是用的Adam,\epsilon=10^{-8}\beta=(0.9,0.999)。学习率设置为3*10^{-5}。冷启动阶段,CNN/DM为500步,XSum为125步。Batch-size设置为8,梯度累计步长为4。CNN/DM的beam size为6,XSum的beam size为8。同时在CNN/DM和XSum上分别训练了基于BART和PEGASUS的预训练语言模型。

2、主要结果

        本文采用标准全长ROUGE F1【20】评估模型。ROUGE1(RG-1)、ROUGE-2(RG-2)和ROUGE-L(RG-L)分别指一元unigram、二元bigrams以及最长的公共子序列。使用BERTScore【21】计算基于BERT嵌入的摘要之间的相似度。用FactCC和QuestEval评估模型的事实描述一致性。FactCC是一个弱监督、基于模型的事实一致性验证方法。QuestEval在生成摘要中不仅考虑事实信息,也考虑了源文中最重要的信息,最终给出了加权F1分数QE。

表1:CNN/DM和XSum数据集上的评估结果

        如表1所示,在含义一致性上,FASum是效果最差的,可能的原因是这个模型不是基于预训练模型的。CLIFF的BERTScore分和忠实性分都比BART好。本文的模型在CNN/DM数据集上比GSum模型好0.97分ROUGE-1、0.90分BERTScore,在XSum数据集上比GSum模型好3.35分QE。这表明多任务中的问题能比重要的句子提供更好的信息。在绝大多数的指标上,本文的模型效果都是比有最好基准的SimCLS模型好,特别是忠实性指标FactCC和QE上。同时从上表也可以看到,oracles能进一步改进效果,在CNN/DM数据集上的ROUGE-1达到50.50分。这个测试也表明:1)通过QA问答对能改进模型效果;2)通过QA问答任务辅助也能改进模型效果。

        因为自动评测可能会有偏差,本文进一步进行了人工评测。在CNN/DM和XSum数据集上随机选取了100个样本,然后雇佣了两名流利使用英语的人来评估生成摘要的信息性和事实描写一致性。选取了具有最好自动评测结果的模型,并且隐藏模型的名称。对于每一篇文章,由基准BART、PEGASUS和其他两个系统生成的摘要会给到评估者。评估者对摘要给出评分,并且标出内部和外部的错误。

  715d5c974df340d335d8c056f000ae55.png              834312e45c1b86a219104fe3472c0134.png

                    表2:CNN/DM数据集上的人工评测结果                                    表3:XSum数据集上的人工评测结果

        从人工评测结果表2和表3中可以看到,CNN/DM数据集上表现出更高的信息性,XSum数据集上表现出更高的事实一致性。这是因为CNN/DM数据集更长从而具有更多信息,XSum数据集比较短需要摘要模型具有更好的效果。在两个数据集上的人工评测也表明了本文的模型对比SimCLS模型具有更好的效果,生成的摘要具有更多的信息、与文档的事实描述更加一致。

3、评估讨论

        消融研究:在CNN/DM数据集上进行本文FES模型的各模块消融研究。第一个先移除多任务框架来验证摘要的联合学习,也即移除了解码器的QA注意力加强机制。这样等价于有实体输入和最大化边际损失的BART摘要生成模型。第二个保留QA任务但用Vanilla Transformer解码器替代QA注意力加强解码器。第三个移除最大边际损失来验证预训练语言模型的过拟合。此外,通过随机选择QA对来查看模型对文档的理解是否跟关键信息相关。

        从表1可以看出,FES去掉多任务框架后,在CNN/DM数据集上的效果RG-L得分下降1.86,BERTScore得分下降0.43,QE得分下降0.60。这表明QA多任务模块增强了编码器的全面表示学习。FES去掉QA注意力机制后,QE得分下降0.28。这表明将QA注意力与重要实体的摘要注意力相结合能帮忙模型从输入文档中获取要点信息,并将信息损失限制在部分实体上以帮助解码器从输入文档中获取有意义的内容。FES去掉最大边际损失函数后,FactCC得分下降0.63。这表明防止预训练语言模型LM过拟合能提高摘要生成的忠实性。最后,FES采用随机QA问答对,会降低效果,但比BART的效果还是提高不少。这表明即使随机的QA问答对不一定与关键信息相关,但加强了文档的理解,也能带来效果的提升。而关于关键实体生成的QA问答对,则进一步提升了效果。

        QA问答对数量研究:在CNN/DM数据集上进行本文FES模型的问答对数量研究。QA问答对的调整数量为6-14对。从图4(a)可以看到,ROUGE得分刚开始会随着QA问答对增加而提升。当QA问答对超过8对后,提升效果会消失。从原因上分析,增加的问答对不再是提取关键的信息了。QA问答对从8对调到15对,FES模型都维持了一个较高的效果,也证明了本文提出模型的有效性和鲁棒性。根据问答对数量研究,本文默认情况下选取的QA问答是8对。

图4

        QA任务评估:本文的框架引入了问题解答任务,所以评估QA任务的效果对理解FES模型就有帮助。具体来说,采用精确匹配(exact match,EM)和部分匹配(partial match,f1)来评估FES模型和其消融模型。结果如表4所示,可以看到,包含多任务框架明显能提升评估得分。这也证明了QA任务和摘要生成任务是相关受益的,摘要生成任务也能提升QA任务的效果。表4中QA任务的EM和F1得分也比较高,表明本文的FES模型也能用于文本的问题解答任务。

                 表4                                                                                                        表5

        FES和预训练语言模型LM的差异:接下来评估FES模型和BART的差异(m_t),结果如图4(b)所示。可以看到,BART模型中m_t仍有有很多值是小于0和近似等于0的。这表明对于很多token来说,预训练语言模型LM是过拟合的。对比BART模型,本文的FES模型中m_t值小于0的数量降低了很多。表5中列出了两个模型中m_t是负值的比例,以及m_t的平均值。FES模型中m_t是负值的比例降低了2.33%,平均值提升了0.11。这表明FES模型针对过拟合问题改进了很多。图4(c)画出了所有词和实体词的m_t分布。实体词的m_t在0值附近的比例降低非常多,这也表明预训练语言模型LM在实体词上的准确性会好很多。

        案例研究:在表6中列出了几个典型案例,包括源文档中的相关QA问答对和相关上下文。在CNN/DM和XSum这两个数据集上采用BART、FEGASUS、SimCLS和本文FES模型生成了摘要。前3个案例显示了基线模型由于对源文档的理解有误,产生了篡改原文的内在错误。本文FES模型在问题问答的帮助下,产生了更加有忠实性的摘要。第4个案例显示了基线模型和预训练语言模型LM生成了相似的tokens,包括了原文中没有的多余信息。本文FES模型没有造成有多余信息的外部错误,这是因为引入了最大边际损失函数减缓了预训练语言模型LM的过拟合。值得一提的是,QA问答任务和最大边际损失两则能相互补充受益。例如第3个案例中,QA问答对和最大边际损失防止产生不忠实于原文的信息。在表6的最后一行进行了错误分析。两个生成的摘要中都包含一个未提及的名称,在训练数据集中可以找到。这个问题可能需要后处理(post-edit)来解决。

表6

结论

        本文提出了具有最大边际损失函数的多任务框架来生成具有忠实性的摘要。辅助问答任务能增强模型对源文档的理解能力,最大边际损失函数可以防止预训练语言模型LM的过拟合。实验结果表明,本文提出的FES模型在不同数据集上都是有效的。下一步可以嵌入后处理操作以提高模型的忠实性。

        而且产生具有忠实性的摘要也是迈向真正人工智能的重要一步。这项工作对构建智能和吸引人的阅读体系有潜在的积极影响。但是大家如果过于依赖摘要的这种即时阅读,可能会变得不那边有能力阅读长文档了。此外预训练语言模型可能会注入恶意和低俗的信息,产生有误导的摘要总结。所以也是要辩证的来看待摘要内容生成的优点和缺点。

本文原文地址:https://arxiv.org/pdf/2210.01877.pdf

参考文献

【1】Wojciech Kryscinski, Bryan McCann, Caiming Xiong, and Richard Socher. Evaluating the factual consistency of abstractive text summarization. In Proc. of EMNLP, 2020.

【2】Thomas Scialom, Paul-Alexis Dray, Sylvain Lamprier, Benjamin Piwowarski, Jacopo Staiano, Alex Wang, and Patrick Gallinari. Questeval: Summarization asks for fact-based evaluation. In Proc. of EMNLP, 2021.

【3】Esin Durmus, He He, and Mona Diab. Feqa: A question answering evaluation framework for faithfulness assessment in abstractive summarization. In Proc. of ACL, 2020.

【4】Daniel Adiwardana, Minh-Thang Luong, David R So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng Lu, et al. Towards a human-like open-domain chatbot. arXiv preprint arXiv:2001.09977, 2020.

【5】Karl Moritz Hermann, Tomas Kocisky, Edward Grefenstette, Lasse Espeholt, Will Kay, Mustafa Suleyman, and Phil Blunsom. Teaching machines to read and comprehend. In Proc. of NeurIPS, 2015.

【6】Shashi Narayan, Shay B Cohen, and Mirella Lapata. Don’t give me the details, just the summary! topic-aware convolutional neural networks for extreme summarization. In Proc. of EMNLP, 2018.

【7】Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proc. of NIPS, 2017.

【8】Wenhao Wu, Wei Li, Xinyan Xiao, Jiachen Liu, Ziqiang Cao, Sujian Li, Hua Wu, and Haifeng Wang. Bass: Boosting abstractive summarization with unified semantic graph. In Proc. of ACL, 2021.

【9】Petar Velickovic, Guillem Cucurull, Arantxa Casanova, Adriana Romero, Pietro Lio, and Yoshua Bengio. Graph attention networks. Proc. of ICLR, 2017.

【10】Bhuwan Dhingra, Manaal Faruqui, Ankur Parikh, Ming-Wei Chang, Dipanjan Das, and William Cohen. Handling divergent reference texts when evaluating table-to-text generation. In Proc. of ACL, 2019.

【11】Joshua Maynez, Shashi Narayan, Bernd Bohnet, and Ryan McDonald. On faithfulness and factuality in abstractive summarization. In Proc. of ACL, 2020.

【12】Mengqi Miao, Fandong Meng, Yijin Liu, Xiao-Hua Zhou, and Jie Zhou. Prevent the language model from being overconfident in neural machine translation. In Proc. of ACL, 2021.

【13】Chenguang Zhu, William Hinthorn, Ruochen Xu, Qingkai Zeng, Michael Zeng, Xuedong Huang, and Meng Jiang. Enhancing factual consistency of abstractive summarization. In Proc. of AACL, 2021.

【14】Shuyang Cao and Lu Wang. Cliff: Contrastive learning for improving faithfulness and factuality in abstractive summarization. In Proc. of EMNLP, 2021.

【15】Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. Bart: Denoising sequence-to-sequence pretraining for natural language generation, translation, and comprehension. In Proc. of ACL, 2020.

【16】Jingqing Zhang, Yao Zhao, Mohammad Saleh, and Peter J Liu. Pegasus: Pre-training with extracted gap-sentences for abstractive summarization. Proc. of ICML, 2020.

【17】Zi-Yi Dou, Pengfei Liu, Hiroaki Hayashi, Zhengbao Jiang, and Graham Neubig. Gsum: A general framework for guided neural abstractive summarization. In Proc. of AACL, 2021.

【18】Yixin Liu and Pengfei Liu. Simcls: A simple framework for contrastive learning of abstractive summarization. In Proc. of ACL, 2021.

【19】Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Transformers: State-ofthe-art natural language processing. In Proc. of EMNLP, 2020.

【20】Chin-Yew Lin. Rouge: A package for automatic evaluation of summaries. In Text summarization branches out, 2004.

【21】Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In Proc. of ICLR, 2020.

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/387903.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

simulink PID控制

系列文章目录 文章目录系列文章目录前言一、非线性系统线性化原理二、反馈控制开环控制反馈or闭环控制PID ControllerPID微调案例总结前言 将非线性系统近似线性化PIDblock与微调 提示&#xff1a;以下是本篇文章正文内容&#xff0c;下面案例可供参考 一、非线性系统线性化 …

Day907.分区表 -MySQL实战

分区表 Hi&#xff0c;我是阿昌&#xff0c;今天学习记录的是关于分区表的内容。 经常被问到这样一个问题&#xff1a; 分区表有什么问题&#xff0c;为什么公司规范不让使用分区表呢&#xff1f; 一、分区表是什么&#xff1f; 为了说明分区表的组织形式&#xff0c;先创建…

Python 数据库如何更新、删除、执行?这里实例告诉你

人生苦短 我用Python 这次继续给大家带来数据库的相关操作 Python 安装包其他数据:点击此处跳转文末名片获取 数据库更新操作 更新操作用于更新数据表的的数据&#xff0c; 以下实例将 EMPLOYEE 表中的 SEX 字段为 M的 AGE 字段递增 1&#xff1a; #!/usr/bin/python # -*- …

ubuntu-9-安装chrony时间同步

使用chrony搭建时间同步服务器 [Linux系列]Chrony时间同步服务器 配置chrony服务&#xff0c;实现服务器时间自动同步 linux上内网环境配置NTP时间同步详解 经验体会&#xff1a;解决Ubuntu 18.04Windows双系统时间不同步的问题 1 时间同步 我们知道一台电脑主机&#xff0c;…

将微信小程序页面转为图片

最近做项目遇到一个需求,那就是要将某个页面转为图片然后传给后端,我仔细找了一圈,发现官方那个Api也就是wx.canvasToTempFilePath生成的图片很有可能为空,太坑了,于是我放弃用它了,选择了用wxml2canvas。 安装wxml2canvas npm init npm install wxml2canvas --save --…

通用游戏地图解决方案设计解析

前言&#xff1a; 在软件开发过程中&#xff0c;我们都希望能设计出一个稳健的&#xff0c;可维护的系统&#xff0c;为了实现这个目的&#xff0c;人们总结出了很多相关的设计原则&#xff0c;比如SOLID原则&#xff0c; KISS原则等等。SOLID每个字母代表了一种设计原则&…

数据是如何在计算机中存储的

我们普通人对于数据存储的认识恐怕大多数都是从自己使用的电脑来的。现在几乎人手一台电脑,而我们的电脑存储着各种各样的文件,比如视频文件、音频文件和Word文档等。这些文件从计算机术语的角度都可以称为数据。 如图1-1所示是Windows 10 “我的电脑”的截图。通过该截图我…

202302读书笔记|《长安的荔枝》——只要肯努力,办法总比困难多

202302读书笔记|《长安的荔枝》——只要肯努力&#xff0c;办法总比困难多 《长安的荔枝》这本书真是酣畅淋漓啊&#xff0c;读起来一气呵成&#xff0c;以讲故事的口吻叙述&#xff0c;上林署九品小官员——李善德&#xff0c;兢兢业业工作多年&#xff0c;终于借贷买了房&…

mac M1 nvm安装教程,避坑

mac M1 nvm 安装问题 新款的mac搭载了苹果自研的芯片&#xff0c;放弃了intel的x86芯片&#xff0c;那之前的软件难免会存在兼容性问题。 鄙人有幸踩了第一个坑。 在通过nvm 安装不同版本的node 时&#xff0c;出现了问题。 问题一&#xff1a;先说一下 nvm的安装问题&#…

Python02 基础语法

Python02 基础语法 二、基础语法 2.1 注释 概念&#xff1a;对某一部分代码的解释说明&#xff0c;在程序执行的时候不会去进行执行。比如&#xff1a;产品的说明书、电影的旁白。 程序员最讨厌的两件事&#xff1a; 一件是自己写代码被要求加注释 另一件是接手别人代码&…

Cesium三维数据格式以及生产流程详解(glb,osgb,obj,bim,ifc)等

最近收到私信问我在cesium上展示的一些三维数据是如何生产和处理的,这篇文章就给大家一次性讲个透彻。 首先我们来做做分类。市面上能接触到的,常见的,cesium上支持展示的三维数据大致分为以下几种: 1.倾斜摄影(osgb,obj) 2.点云数据(las,pts) 3.手工模型(gltf,…

win10安装oracle

文件放到最后。我的电脑是win11的&#xff0c;因为老师让写下安装笔记&#xff0c;在11上安装的时候没有截屏&#xff0c;所以在虚拟机上重新安装下吧。室友说要把文件夹放到c盘才能打开。我试了下&#xff0c;具体的是要把Oracle11g文件夹放到c盘根目录下。如果解压后不是这个…

修正一些formdesigner的一些bug与操作

之前集成了formdesigner表单设计器&#xff0c;但还是有些问题&#xff0c;所以进行一些bug修复与功能修正 一、之前组件布局的图标不见了 在main.js里增加下面一行 import /components/formdesigner/assets/iconfont/iconfont.js 效果如下&#xff1a; 二、选择列表没有数…

react-draggable实现拖拽详解

react-draggable属性常用属性属性列表事件列表举例首先安装 react-draggable实现移动希望小编写的能够帮助到你&#x1f618;属性 常用属性 属性默认值介绍axisxhandle拖动的方向&#xff0c;可选值 x ,y,bothhandle无指定拖动handle的classposition无handle的位置&#xff0…

习题30 if elif else 语句

people 30#变量people赋值30 cars 40#变量cars赋值40 buses 15#变量buses赋值 if cars > people:#如果出租车比人多print("We should take the cars")#我们坐出租车 elif cars < people:#elif后面必须跟条件&#xff0c;print("We should not take the…

MyBatis框架的入门案例

MyBatis框架的入门案例 资源地址&#xff1a;https://download.csdn.net/download/weixin_41957626/87531373 1.MyBatis的配置 环境&#xff1a;基于maven的结构 1.1目录结构 1.2依赖包 <dependencies><!--mybatis--><dependency><groupId>org.mybatis…

【Vue3 第二十二章】过渡动画

一、基本用法 <Transition> 是一个内置组件&#xff0c;这意味着它在任意别的组件中都可以被使用&#xff0c;无需注册。它可以将进入和离开动画应用到通过默认插槽传递给它的元素或组件上。进入或离开可以由以下的条件之一触发&#xff1a; 由 v-if 所触发的切换由 v-…

函数栈帧的创建和销毁(详解)

函数栈帧的创建和销毁&#x1f996;函数栈帧是什么&#xff1f;&#x1f996;函数栈帧的创建和销毁解析&#x1f40b;栈是什么&#xff1f;&#x1f40b;认识相关寄存器和汇编指令&#x1f40b;解析函数栈帧的创建和销毁&#x1f433;预备知识&#x1f433;函数的调用堆栈&…

SpringBoot入门 - 配置热部署devtools工具

在SpringBoot开发调试中&#xff0c;如果我每行代码的修改都需要重启启动再调试&#xff0c;可能比较费时间&#xff1b;SpringBoot团队针对此问题提供了spring-boot-devtools&#xff08;简称devtools&#xff09;插件&#xff0c;它试图提升开发调试的效率。准备知识点什么是…

汇编系列02-借助操作系统输出Hello World

说明:本节的程序使用的是x86_64指令集的。 汇编语言是可以编译成机器指令的&#xff0c;机器指令是可以直接在CPU上面执行的。我们编写的汇编程序既可以直接在操作系统的帮助下执行&#xff0c;也可以绕过操作系统&#xff0c;直接在硬件上执行。 如果你打算编写的汇编程序在…