NLP论文阅读记录 - 2021 | WOS 利用 ParsBERT 和预训练 mT5 进行波斯语抽象文本摘要

news2024/11/15 15:39:37

文章目录

  • 前言
  • 0、论文摘要
  • 一、Introduction
    • 1.1目标问题
    • 1.2相关的尝试
    • 1.3本文贡献
  • 二.前提
  • 三.本文方法
    • A. 序列到序列 ParsBERT
    • B、mT5
  • 四 实验效果
    • 4.1数据集
    • 4.2 对比模型
    • 4.3实施细节
    • 4.4评估指标
    • 4.5 实验结果
      • 4.6 细粒度分析
  • 五 总结
  • 思考


前言

在这里插入图片描述

Leveraging ParsBERT and Pretrained mT5 for Persian Abstractive Text Summarization(21)

0、论文摘要

文本摘要是最关键的自然语言处理(NLP)任务之一。每天都有越来越多的研究在这一领域进行。基于 Transformer 的预训练编码器解码器模型已开始在这些任务中受到欢迎。本文提出了两种方法来解决此任务,并引入了一个名为 pnsummary 的新颖数据集,用于波斯语抽象文本摘要。本文使用的模型是 mT5 和 ParsBERT 模型的编码器-解码器版本(即波斯语的单语言 BERT 模型)。这些模型在 pn-summary 数据集上进行了微调。目前的工作是此类工作中的首例,通过取得有希望的成果,可以作为任何未来工作的基线。

一、Introduction

1.1目标问题

随着数字时代的出现,大量的文本信息已经可以通过数字方式获得。不同的自然语言处理 (NLP) 任务侧重于该信息的不同方面。自动文本摘要是这些任务之一,关注将文本压缩为较短的格式,以便保留内容中最重要的信息[1]、[2]。这在许多应用中至关重要,因为由人类生成摘要,无论多么精确,都可能变得相当耗时且麻烦。此类应用包括搜索引擎中使用的文本检索系统,用于显示搜索结果的摘要版本[3]。文本摘要可以从不同的角度来看待,包括单文档[4]与多文档[5]、[6]以及单语言与多语言[7]。然而,这项任务的一个重要方面是方法,它要么是提取的,要么是抽象的。在提取式摘要中,从上下文中选择几个句子来代表整个文本。这些句子是根据它们的分数(或排名)来选择的。这些分数是通过计算某些特征来确定的,例如句子之间的顺序位置、句子的长度、名词的比例等。对句子进行排序后,选择前 n 个句子来代表整个文本 [8] 。抽象摘要技术通过使用原始文本中不一定存在的单词生成新句子来创建原始文本的简短版本。与提取性摘要相比,抽象技术更令人畏惧,但也更有吸引力和灵活。因此,不同语言的抽象技术越来越受到关注。然而,据我们所知,专门研究波斯语文本摘要的著作太少,几乎所有著作都是摘录的。部分原因是缺乏可用于此任务的适当的波斯语文本数据集。这是当前工作背后的主要动机:为波斯语创建一个抽象文本摘要框架,并为此任务编写一个新的格式正确的数据集。

1.2相关的尝试

抽象文本摘要有不同的方法,特别是对于英语,其中许多方法基于序列到序列(Seq2Seq)结构,因为文本摘要可以被视为 Seq2Seq 任务。
在[9]中提出了一种Seq2Seq编码器-解码器模型,其中使用深度循环生成解码器来提高摘要质量。 [10]中提出的模型是一种用于抽象文本摘要的注意力编码器-解码器递归神经网络(RNN)。在[11]中,引入了一种新的训练方法,将强化学习与监督词预测相结合。 [12] 中提出了 Seq2Seq 模型的增强版本。类似地,[13]中提出了编码器-解码器架构的扩展版本,该架构受益于用于抽象概括的信息选择层。
上面提到的许多工作都受益于预训练的语言模型,因为这些模型已经开始在过去几年中获得了巨大的人气。这是因为他们利用迁移学习的优势,将每个 NLP 任务简化为轻量级微调阶段。因此,预训练用于文本摘要的 Seq2Seq 结构的方法可能非常有前途。BERT [14] 和 T5 [15] 是广泛使用的预训练语言建模技术。 BERT 使用掩码语言模型 (MLM) 和编码器-解码器堆栈对左右上下文执行联合调节。另一方面,T5 是一个统一的 Seq2Seq 框架,采用 Text-to-Text 格式来解决基于 NLP 文本的问题。
T5 模型的多语言变体称为 mT5 [16],涵盖 101 种不同的语言,并在基于 Common Crawl 的数据集上进行训练。由于其多语言特性,mT5 模型是英语以外语言的合适选择。 BERT模型还有多语言版本。然而,该模型 [17]、[18] 有许多单语言版本,它们在各种 NLP 任务上表现优于多语言版本。对于波斯语,ParsBERT 模型 [19] 在命名实体识别 (NER) 和情感分析等许多波斯语 NLP 任务上表现出了最先进的水平。
尽管预训练语言模型在自然语言理解(NLU)任务方面非常成功,但它们在 Seq2Seq 任务方面表现出较低的效率。因此,在本文中,我们试图通过做出以下贡献来解决波斯语在文本摘要方面的上述缺点:

1.3本文贡献

总之,我们的贡献如下:

• 为波斯语文本摘要任务引入一个新颖的数据集。该数据集是公开可用的1,任何希望将其用于未来工作的人都可以使用。
• 研究波斯语文本抽象文本摘要的两种不同方法。一种是在 Seq2Seq 结构中使用 ParsBERT 模型,如 [20] 中所示。另一种是使用mT5模型。这两个模型都在建议的数据集上进行了微调。

本文的其余部分结构如下。第二节概述了 ParsBERT Seq2Seq 编码器-解码器模型以及 mT5。在第三节中,概述了两种方法的微调和文本生成配置。第四节介绍了数据集的组成及其统计特征。本节还概述了用于衡量模型性能的指标。第五节介绍了对早期模型中提到的数据集进行微调所获得的结果。最后,第六节总结了本文。

二.前提

三.本文方法

本节概述了序列到序列 ParsBERT 和 mT5 架构。

A. 序列到序列 ParsBERT

ParsBERT [19] 是波斯语 BERT 语言模型 [14] 的单语版本,采用 BERT 模型的基本配置(即 12 个隐藏层,隐藏大小为 768,有 12 个注意力头)。 BERT 是一种基于 Transformer 的 [21] 语言模型,具有如图 1 所示的仅编码器架构。在该架构中,输入序列 {x1, x2, …, xn} 映射到上下文化编码序列 { x′ 1, x′ 2, …, x′ n } 通过一系列双向自注意力块,每个块中有两个前馈层。然后可以通过将分类层添加到最后一个隐藏层来将输出序列映射到特定于任务的输出类。
在这里插入图片描述

BERT 模型通过将输入序列映射到具有先验已知输出长度的输出序列,在 NLU 任务上实现了最先进的性能。然而,由于输出序列维度不依赖于输入,因此使用 BERT 进行文本生成(摘要)是不切实际的。换句话说,任何基于 BERT 的模型都只对应于基于 Transformer 的编码器-解码器模型的编码器部分的架构,这些模型主要用于文本生成。
另一方面,诸如 GPT-2 [22] 之类的仅解码器模型可以用作文本生成的手段。然而,事实证明,编码器-解码器结构可以更好地完成此类任务[23]。
因此,我们使用 ParsBERT 来热启动如[20]中提到的,从仅编码器检查点中训练编码器和解码器,以实现预训练的编码器解码器模型(BERT2BERT或B2B),该模型可以使用第四节中介绍的数据集进行微调以进行文本摘要。
在此架构中,编码器层与 ParsBERT 转换器层相同。解码器层也与 ParsBERT 相同,但有一些变化。首先,在自注意力层和前馈层之间添加交叉注意力层,以便根据上下文编码序列(例如 ParsBERT 模型的输出)调节解码器。其次,将双向自注意力层更改为单向层以与自回归生成兼容。总而言之,在热启动解码器时,只有交叉注意力层权重被随机初始化,所有其他权重都是 ParsBERT 的预训练权重。图 2 说明了与 ParsBERT 模型一起热启动的所提出的 BERT2BERT 模型的构建块,以及示例文本及其由所提出的模型生成的摘要版本。
在这里插入图片描述
在此图中,输入文本首先被馈送到特殊的标记编码器,该编码器处理半空格字符 (U+200C Unicode) 并删除不需要的标记。半空格字符在波斯语中广泛用于各种情况(例如形成复数名词)。在图 2 所示的示例文本中,单词“فעעـههه”实际上由三个标记组成:“ف٢٠ه”(名词)+ [unused0] +“هه”(复数标记),其中 [unused0] 标记代表半-将名词连接到复数标记的空格标记。之后,文本被馈送到编码器块,编码器块的结果被馈送到解码器块,解码器块又生成输出摘要。然后将半字符标记转换为实际的半字符特定的令牌解码器块。

B、mT5

mT5 代表多语言文本到文本传输转换器(多语言 T5),是 T5 模型的多语言版本。 T5 是一种编码器-解码器 Transformer 架构,它密切反映了原始 Transformer 模型 [24] 的主要构建块,并涵盖以下目标:
• 预测下一个单词的语言建模。 • 反洗牌以重新定义原始文本。 • 破坏跨度来预测屏蔽词。
T5网络架构继承了之前下游NLP任务的统一框架,并将其转变为文本到文本的格式[23]。换句话说,T5 架构允许采用编码器-解码器过程将每个可能的 NLP 任务聚合到一个网络中。因此,每个任务都使用相同的超参数和损失函数。如图 3 所示。
在这里插入图片描述
mT5继承了T5型号的所有功能。 mT5 在 C4 数据集的扩展版本上进行了训练,该数据集包含 101 种语言(包括波斯语)的 10,000 多个网页内容,迄今为止超过 71 个月的抓取。

与其他多语言模型(如多语言 BERT [14]、XLM-R [25] 和多语言 BERT(不支持波斯语)[26])相比,mT5 在所有任务上都达到了最先进的水平 [15], [16],特别是在总结任务上。

四 实验效果

4.1数据集

4.2 对比模型

4.3实施细节

为了在第 IV 节中介绍的 pn-summery 数据集上微调第 II 节中介绍的两个模型,我们使用了具有 1000 个预热步骤的 Adam 优化器,批量大小为 4 和 5 个训练周期。 Seq2Seq ParsBERT 和 mT5 的学习率分别为 5e − 5 和 1e − 4。
文本生成过程是指微调模型后自回归语言生成的解码策略。本质上,自回归生成围绕这样的假设:任何单词序列的概率分布都可以分解为条件下一个单词分布的乘积,如方程(1)所示,其中 W0 是初始上下文单词,T 是单词序列的长度。
在这里插入图片描述
这里的目标是通过选择最佳标记(单词)来最大化序列概率。一种方法是贪婪搜索,其中选择的下一个单词只是概率最高的单词。然而,如果高概率的单词隐藏在一些低概率的单词后面,则该方法会忽略它们。为了解决这个问题,我们使用波束搜索方法,在每个时间步保留 nbeams 个最可能的序列(即波束),并最终选择总体概率最高的一个。与贪婪搜索相比,集束搜索生成更高概率的序列。
一个缺点是集束搜索​​往往会生成一些重复单词的序列。为了克服这个问题,我们利用 n-grams 惩罚 [11]、[27]。这样,如果下一个单词导致生成已经见过的 n-gram,则该单词的概率将设置为0 手动,从而防止 n-gram 重复。波束搜索中使用的另一个参数是早期停止,它可以是活动的也可以是非活动的。如果处于活动状态,则当所有波束假设到达 EOS 代币时,文本生成将停止。表 I 列出了当前工作中用于 BERT2BERT 和 mT5 模型的波束数量、n 元惩罚大小、长度惩罚和早期停止值。
在这里插入图片描述

4.4评估指标

为了评估本文介绍的两种架构的性能,我们通过从 6 个不同的新闻机构网站抓取大量文章及其摘要来构建一个新的数据集,以下表示为 pn-summary。两个模型都在此数据集上进行了微调。因此,这是第一次建议将该数据集用作波斯语抽象摘要的基准。该数据集共包含 93,207 篇文档,涵盖从经济到旅游的一系列类别。文章类别的频度分布和各通讯社的文章数量分别如图5和图6所示。
在这里插入图片描述
应该注意的是,文章摘要中的标记数量各不相同。如图7所示。从图中可以看出,大多数文章的摘要长度都在30个token左右。
在这里插入图片描述

在这里插入图片描述
为了确定模型的性能,我们使用面向回忆的基础评估(ROUGE)度量包[28]。该软件包广泛用于自动摘要和机器翻译评估。此包中包含的指标将自动摘要与每个文档的参考摘要进行比较。该包中包含五种不同的指标。我们计算其中三个指标的 F-1 分数,以显示两个模型在建议数据集上的整体性能: • ROUGE-1(一元语法)评分,用于计算生成的摘要和参考摘要之间一元语法的重叠。 • ROUGE-2(二元组)评分,计算生成摘要和参考摘要之间二元组的重叠。 • ROUGE-L 评分,其中分数是在句子级别计算的。在此度量中,新行将被忽略,并计算两个文本片段之间的最长公共子序列(LCS)。

4.5 实验结果

本节介绍了在所提出的 pn-summary 数据集上通过微调 mT5 和基于 ParsBERT 的 BERT2BERT 结构获得的结果。表 II 报告了第 IV 节中讨论的三种不同 ROUGE 指标的 F1 分数。可以看出,与 mT5 模型相比,ParsBERT B2B 结构获得了更高的分数。这可能是因为该架构中的编码器解码器权重(即 ParsBERT 权重)是在大量波斯语语料库上进行具体调整的,这使其成为适合仅限波斯语任务的架构。
在这里插入图片描述
由于尚未针对波斯语提出其他预训练的抽象摘要方法,并且这是第一次引入和发布 pn-summary 数据集,因此不可能将当前工作的结果与任何其他基线进行比较。因此,这项工作中提出的结果可以作为任何未来波斯语抽象方法的基线,这些方法试图在当前工作中提出和发布的拟议 pn-summary 数据集上训练他们的模型。为了进一步说明这两个模型的性能,我们在表 III 中包含了数据集中的两个示例。正文、实际摘要以及 mT5 和 BERT2BERT 模型生成的摘要如下表所示。根据该表,两个示例中 BERT2BERT 模型给出的摘要无论是含义还是词汇选择都比较接近实际摘要。

4.6 细粒度分析


五 总结

波斯语文本摘要的工作有限,其中没有一个是基于预先训练的模型进行抽象的。在本文中,我们提出了两种预训练方法,旨在通过抽象方法解决波斯语文本摘要问题:一种基于多语言 T5 模型,另一种是从 ParsBERT 语言模型热启动的 BERT2BERT。我们还编写并发布了一个名为 pn-summary 的新数据集,用于文本摘要,因为波斯语明显缺乏此类数据集。在上述数据集上微调所提出的方法的结果是有希望的。由于该领域缺乏工作,我们的工作无法与任何早期的工作进行比较,现在可以作为该领域任何未来工作的基线。

思考

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1387204.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

C++内存分配策略

目录 基础概念 内存布局 分配方式 实现 1.new和delete 2.利用空间配置器alloc 3.用malloc和free 4.静态内存分配 基础概念 在讲内存分配之前,先对一些基础概念进行阐述,以便能更好的讨论问题 内存布局 代码编译为可执行程序后运行占用的内存可…

【现代密码学】笔记5--伪随机置换(分组加密)《introduction to modern cryphtography》

【现代密码学】笔记5--伪随机置换(分组加密)《introduction to modern cryphtography》 写在最前面5 伪随机排列实践构造(块密码/分组密码) 写在最前面 主要在 哈工大密码学课程 张宇老师课件 的基础上学习记录笔记。 内容补充&…

云服务器部署Stable Diffusion Webui从0到1总结:反复重启+循环debug

文章目录 在学校服务器部署Stable Diffusion Webui(一)准备工作(二)环境配置(三)git拉取项目到本地(四)运行项目 遇到的问题:(一)使用git clone时…

jmeter--6.跨线程组关联

目录 1. 跨线程组实现接口关联 2. 跨线程组实现Cookie关联 1. 跨线程组实现接口关联 1.1 根据json/正则的方式提取到需要的响应数据 1.2 在接口下新增一个BeanShell 后置处理器,并通过函数助手写入【${__setProperty(new_token,${access_token},)}】,…

基于Java (spring-boot)的社团管理系统

一、项目介绍 系统管理员的功能概述: ①用户管理 a.注册用户账户 当一个新用户注册时,用户填写基本信息并上传。用户基本信息包括账号、 姓名、密码、手机、地址等信息。 b.用户信息管理 管理员可以查看系统所有用户的基本信息,并修改和…

10分钟快速上手LLM大模型Python前端开发(三)之显示模块(一)

10分钟快速上手LLM大模型Python前端开发(三)之显示模块(一) 显示代码初步测试 通用显示方法显示字符串显示dataframe显示Markdown 微信公众号:leetcode_algos_life,代码随想随记 小红书:4124081…

基于Java (spring-boot)的停车场管理系统

一、项目介绍 基于Java (spring-boot)的停车场管理系统、预订车位系统、停车缴费系统功能: 登录、注册、后台首页、用户信息管理、车辆信息管理、新增车辆、车位费用设置、停泊车辆查询、车辆进出管理、登录日志查询、个人中心、预定停车位、缴费信息。 适用人群&…

jmeter--5.断言

目录 1. 响应断言 1.1 添加断言 1.2 名词解释 断言失败显示示例 2. json断言 2.1 添加断言 2.2 名词解释 断言失败显示示例 2.3 json断言应用 3. beanshell断言 3.1 添加断言 3.2 原理 断言失败显示示例 1. 响应断言 1.1 添加断言 线程组->添加->断言->…

202406读书笔记|《沉睡的线条世界》——翻山越岭,只为与你分享点滴的快乐

《沉睡的线条世界》登登登Dn绘著,简简单单的小画,简简单单的线条,简简单单的语言,温馨又有一点暖心。 怎样的你都好,做最真实的自己。 部分节选如下: 愿你我永远有热情,永远能为生活的每一个小惊…

运筹说 第67期 | 动态规划模型的建立与求解

通过前一期的学习,我们已经学会了动态规划的基本概念和基本原理。本期小编带大家学习动态规划模型的建立与求解。 动态规划模型的建立 一 概述 建立动态规划的模型,就是分析问题并建立问题的动态规划基本方程。 成功地应用动态规划方法的关键&#x…

[渗透测试学习] Hospital - HackTheBox

文章目录 信息搜集getshell提权信息搜集 nmap扫描一下端口 发现8080端口和443端口有http服务 然后发现3389端口是启用了ms-wbt-server服务 在对443端口的扫描没有收获,并且只有邮箱登录界面无法注册 接着看向8080端口,我们随便注册用户登录后发现有文件上传功能 getshell …

Linux入门级常用命令学习笔记

以下命令是我跟着编程界的大佬鱼皮学习Linux时用的命令,我把它都记下来,权当作笔记,可供自己后期反复练习使用,让我们学习一下最基本的Linux命令吧。 一、Linux实战命令 在dos下 【ssh 服务器ip】可以连接服务器,输入…

HCIA基础知识

IP地址、静态路由、动态路由、交换机 OSPF RIP DHCP VLAN ACL NAT OSI TCP/IP UDP TCP 三次握手,四次挥手,报头 什么是网络? 由网络连接设备通过传输介质将网络终端设备连接起来,进行资源共享、信息传递的平台。 OSI七…

运筹说 第98期|无约束极值问题

上一期我们一起学习了关于非线性规划问题的一维搜索方法的相关内容,本期小编将带大家学习非线性规划的无约束极值问题。 下面,让我们从实际问题出发,学习无约束极值问题吧! 一、问题描述及求解原理 1 无约束极值问题的定义 无约…

【C++干货铺】会旋转的二叉树——AVLTree

个人主页点击直达:小白不是程序媛 C系列专栏:C干货铺 代码仓库:Gitee 目录 前言 AVL树 AVL树的概念 AVL树结点的定义 AVL树的插入 寻找插入结点的位置 修改平衡因子 AVL树的旋转 右单旋 左单旋 先右旋再左旋 先左旋再右旋 AVL树…

【JAVA-打包jar】jar不能双击运行,Jar包找不到主类

我的问题比较简单,搞了一下午,查阅了很多教程,无意发现,居然是 jdk过期需要更新! 气的吐血! 所以不要废话,首先检查自己的环境变量和JDK!!! 环境变量&…

ML:2-1-4理解python如何实现forward prop

文章目录 1. 单层上的向前传播forward prop2. 前向传播的一般实现3. 通用人工智能 1. 单层上的向前传播forward prop 【了解在python中如何实现forward prop】 继续使用咖啡烘焙模型: 了解经过每一个神经元的预测过程。设置每一个神经元的w,b值。从而得…

(2024,分数蒸馏抽样,Delta 降噪分数,LoRA)PALP:文本到图像模型的提示对齐个性化

PALP: Prompt Aligned Personalization of Text-to-Image Models 公和众和号:EDPJ(进 Q 交流群:922230617 或加 VX:CV_EDPJ 进 V 交流群) 目录 0. 摘要 4. 提示对齐方法 4.1 概述 4.2 个性化 4.3 提示对齐分数抽…

深度学习记录--Train/dev/test sets

为什么需要训练集、验证集(简单交叉验证集)和测试集? 为了创建高效的神经网络,需要不断进行训练(迭代) 一个神经网络的产生 从最开始的想法idea开始,然后付诸于代码code,根据结果验证反过来对一开始的想法idea进行修正&#xf…

架构简介,到底什么是架构?

1. 前言 对技术人员来说,“架构”是一个再常见不过的词儿了。我们经常对新员工培训整个系统的架构,参加架构设计评审,学习业界开源系统(例如,MySQL、Hadoop)的架构,研究大公司的架构实现&#…