A Joint Neural Model for Information Extraction with Global Features论文解读

news2024/12/24 10:59:03

A Joint Neural Model for Information Extraction with Global Features

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-fkasCNVh-1671411133124)(A Joint Neural Model for Information Extraction with Global Features.assets/image-20221216205836246.png)]

code:BLENDER Lab | Software (illinois.edu)或者GerlinGreen/OneIE: Forked from OneIE: A Joint Neural Model for Information Extraction with Global Features (github.com)

paper:A Joint Neural Model for Information Extraction with Global Features (aclanthology.org)

期刊/会议:ACL 2020

摘要

大多数现有的用于信息提取(IE)的联合神经网络模型使用局部任务特定的分类器来预测单个实例(例如,触发词,关系)的标签,而不管它们之间的交互。例如,在同一句话中,死亡事件(die event)的受害者(victim)可能是攻击事件(attack event)的受害者(victim)。为了捕获这种跨子任务和跨实例的相互依赖关系,我们提出了一个联合神经网络框架ONEIE,旨在从输入语句中提取全局最优IE结果作为图。ONEIE执行端到端IE分为四个阶段:**(1)将给定的句子编码为上下文化的单词表示;(2)识别实体提及和事件触发词节点;(3)利用局部分类器计算所有节点及其成对链路的标签得分;(4)利用波束解码器(beam decoder)搜索全局最优图。**在解码阶段,我们结合全局特征来捕获跨子任务和跨实例的交互。实验表明,添加全局特征提高了我们的模型的性能,并在所有子任务上达到了SOTA。由于ONEIE没有使用任何特定的语言特性,我们证明了它可以很容易地应用于新语言或以多语言方式进行训练。我们的英语、西班牙语和中文代码和模型均可公开用于研究目的。

1、简介

信息提取(Information Extraction, IE)旨在从非结构化文本中提取结构化信息。这是一项复杂的任务,由许多子任务组成,如命名命题识别、实体提及抽取、实体链接、实体共指消解、关系提取、事件提取和事件共指消解。早期的工作通常以pipline的方式执行IE,这会导致错误传播问题,并禁止pipline中组件之间的交互。为此,一些研究者提出了联合推理和联合建模的方法来改善局部预测。由于深度学习成功的案例,神经网络广泛地被应用到大量信息抽取子任务中。最近,一些研究者重新审视了全局推理方法,通过设计具有嵌入特征的神经网络来联合建模多个子任务。但是,这些方法在最后一层使用单独的局部特定于任务的分类器并且没有显式地建模任务和实例之间的相互依赖关系。图1显示了一个真实的示例,其中局部论元角色分类器预测了冗余的 person 边。如果模型能够学习并利用一个Elect事件有两个 person 论元是不寻常的这一事实,那么它应该能够避免这样的错误。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Togg6QoZ-1671411133126)(A Joint Neural Model for Information Extraction with Global Features.assets/image-20221216214323248.png)]

为了解决这个问题,我们提出了一个联合神经网络框架ONEIE,执行全局约束的端到端信息抽取。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-oQRxXFCM-1671411133127)(A Joint Neural Model for Information Extraction with Global Features.assets/image-20221216220634643.png)]

如图2所示,ONEIE的目标不是使用局部分类器预测单独的知识元素,而是为输入句子提取全局最优信息网络。在解码过程中比较候选信息网络时,我们不仅考虑每个知识元素的单个标签得分,还考虑网络中的跨子任务和跨实例交互。在本例中,INJURE-VICTIM-ORG(伤害事件(injure event)的受害者(victim)是一个ORG实体)结构的图被降级。实验表明,与最先进的端到端架构相比,我们的框架实现了相当或更好的结果。

2、任务

给出一个句子,我们的ONEIE框架旨在提取一个信息网络表示,其中实体提及和事件触发词表示为节点,关系和事件论元链接表示为边。换句话说,我们在统一的框架内执行实体、关系和事件抽取。在这一节中,我们将详细阐述这些任务和相关的术语。

实体抽取:旨在识别文本中提到的实体,并将其分类为预定义的实体类型。mention可以是名字、名词或代词。例如,“Kashmir region”应该被识别为图2中提到的一个位置(LOC)命名实体。

关系抽取:是将关系类型分配给有序的实体提及对的任务。例如,“Kashmir”与“India”是一种“part-whole”关系。

事件抽取:需要在非结构化文本中识别事件触发词(最清楚地表达事件发生的单词或短语)及其论元(这些事件的参与者的单词或短语),并根据它们的类型和角色分别对这些短语进行分类。论元可以是实体、时间表达或值(例如,金钱、职位、犯罪)。例如,在图2中,单词“injured”触发了INJURE事件(injure event),而“300”是VICTIM论元。

我们将信息网络的抽取任务表述如下。给定一个输入句子,我们的目标是预测一个图 G = ( V , E ) G = (V, E) G=(V,E),其中 V V V E E E分别是节点集和边集。每个节点 v i = < a i , b i , l i > ∈ V v_i =<a_i,b_i,l_i> \in V vi=<ai,bi,li>∈V表示一个实体提及或事件触发词,其中 a a a b b b是开始词和结束词索引, l l l是节点类型标签。每条边 e i j = < i , j , l i j > ∈ E e_{ij} = <i, j, l_{ij}>\in E eij=<i,j,lij>∈E类似表示,其中 i i i j j j表示所涉及节点的索引。例如,在图2中,触发词“injured”表示为 < 7 , 7 , I N J U R E > <7, 7, INJURE> <7,7,INJURE>,实体提及“Kashmir region”表示为 < 10 , 11 , L O C > <10, 11, LOC> <10,11,LOC>,它们之间的事件论元边为 < 2 , 3 , P L A C E > <2,3, PLACE> <2,3,PLACE>

3、方法

如图2所示,我们的ONEIE框架分四个步骤从给定的句子中提取信息网络:编码、识别、分类和解码。我们使用预训练的BERT编码器对输入句子进行编码,并识别句子中的实体提及和事件触发词。之后,我们计算所有节点和其中的成对边的类型标签分数。在解码过程中,我们使用波束搜索(beam search)为输入句子探索可能的信息网络,并返回全局得分最高的信息网络。

3.1 编码

给定一个输入句子有 N N N个单词,我们使用预训练语言模型BERT编码器去获得每一个单词的是上下文表征 x i x_i xi。如果一个单词被分成多个单词片段(例如, M o n d r i a n → M o n , # # d r , # # i a n Mondrian \to Mon,\#\#dr,\#\#ian MondrianMon,##dr,##ian),我们使用所有片段向量的平均值作为它的单词表示。虽然以前的方法通常使用BERT的最后一层输出,但我们的初步研究表明,使用BERT的最后倒数第三层输出来丰富单词表示可以大大提高大多数子任务的性能。

3.2 识别

在这一阶段,我们识别句子中的实体提及和事件触发,它们将作为信息网络中的节点。我们使用前馈网络FFN为每个单词计算得分向量 y ^ i = F F N ( x i ) \hat y_i = FFN(x_i) y^i=FFN(xi),其中 y ^ i \hat y_i y^i中的每个值表示目标标记集合中该标记的得分。在此之后,我们使用条件随机场(CRFs)层来捕获预测标签之间的依赖关系(例如,I-PER标签不应该跟随B-GPE标签)。与Chiu和Nichols类似,我们计算标记路径 z ^ = { z ^ 1 , . . . , z ^ L } \hat z =\{ \hat z_1,...,\hat z_L\} z^={z^1,...,z^L}
s ( X , z ^ ) = ∑ i = 1 L y ^ i , z ^ i + ∑ i = 1 L + 1 A z ^ i − 1 , z ^ i s(X,\hat z)=\sum_{i=1}^{L} \hat y_{i,\hat z_i} + \sum_{i=1}^{L+1}A_{\hat z_{i-1},\hat z_i} s(X,z^)=i=1Ly^i,z^i+i=1L+1Az^i1,z^i
X = { x 1 , . . . , x L } X=\{ x_1,...,x_L\} X={x1,...,xL}是输入句子的上下文表征, y ^ i , z ^ i \hat y_{i,\hat z_i} y^i,z^i是得分向量 y ^ i \hat y_i y^i z ^ i \hat z_i z^i部分的得分, A z ^ i − 1 , z ^ i A_{\hat z_{i-1},\hat z_i} Az^i1,z^i是实体 z ^ i − 1 , z ^ i \hat z_{i-1},\hat z_i z^i1,z^i在矩阵A中标签 z ^ i − 1 \hat z_{i-1} z^i1 z ^ i \hat z_i z^i的迁移得分。我们添加了两个特殊标记到标记路径上,分别表示 z ^ 0 \hat z_0 z^0 z ^ L + 1 \hat z_{L+1} z^L+1,以表示 < s t a r t > <start> <start> < e n d > <end> <end>。在训练阶段,我们使用最大化负对数似然来获得正确标注序列:
l o g   p ( z ∣ X ) = s ( X , z ) − l o g ∑ z ^ ∈ Z e s ( X , z ^ ) log\ p(z|X)=s(X,z)-log \sum_{\hat z \in Z} e^{s(X,\hat z)} log p(zX)=s(X,z)logz^Zes(X,z^)
其中 Z Z Z是给定句子中所有可能的标记路径的集合。因此,我们定义识别损失为 L 1 = − l o g   p ( z ∣ X ) L_1 =−log \ p(z|X) L1=log p(zX)

在我们的实现中,我们使用单独的标记器来抽取实体提及和事件触发词。注意,我们不使用标记器预测的类型。相反,我们在解码阶段对所有知识元素进行联合决策,以防止错误传播,并利用它们之间的相互作用来提高节点类型的预测。

3.3 分类

我们通过平均每个已标识的节点的单词表示来将其表示为 v i v_i vi。在此之后,我们使用单独的任务特定前馈网络来计算每个节点的标签得分,表达式为 y ^ i t = F F N t ( v i ) \hat y_i^t=FFN^t(v_i) y^it=FFNt(vi),其中 t t t表示特定的任务。为了获得第 i i i个和第 j j j个节点之间边缘的标签得分向量,我们将它们的span表示连接起来,并将该向量计算为 y ^ k t = F F N t ( v i , v j ) \hat y_k^t=FFN^t(v_i,v_j) y^kt=FFNt(vi,vj)

对于每一个任务,这个训练的目标都是最小化交叉熵损失:
L t = − 1 N t y i t l o g   y ^ i t L^t=-\frac{1}{N^t} y_i^t log\ \hat y_i^t Lt=Nt1yitlog y^it
y i t y_i^t yit是正确的标签向量, N t N^t Nt是第 t t t个任务的实例数。

如果我们忽略了节点和边之间的相互依赖关系,我们可以简单地预测每个知识元素得分最高的标签,从而生成局部最优图 G ^ \hat G G^ G ^ \hat G G^的分数可以计算为
s ′ ( G ^ ) = ∑ t ∈ T ∑ i = 1 N t m a x   y ^ i t s'(\hat G)=\sum_{t \in T} \sum_{i=1}^{N^t}max\ \hat y_i^t s(G^)=tTi=1Ntmax y^it
其中 T T T是总的任务数。我们参考 s ′ ( G ^ ) s'(\hat G) s(G^)作为 G ^ \hat G G^的局部分数。

3.4 全局特征

局部分类器的一个局限性是它们不能捕获信息网络中知识元素之间的相互依赖关系。我们在框架中考虑了两种类型的相互依赖。

第一种类型的相互依赖是实体、关系和事件之间的跨子任务交互。考虑下面的句子。“A civilian aid worker from San Francisco was killed in an attack in Afghanistan”局部分类器可能将“San Francisco”预测为受害者(victim)论元,因为在“was killed”之前提到的实体通常是受害者(victim),尽管GPE不太可能是受害者(victim)。为了施加这样的约束,我们设计了如图3(a)所示的全局特征来评估结构DIE-VICTIM-GPE是否存在于候选图中。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-QhgjLrf0-1671411133128)(A Joint Neural Model for Information Extraction with Global Features.assets/image-20221217214835127.png)]

另一种类型的相互依赖是句子中多个事件或关系实例之间的跨实例交互。以下面的句子为例。“South Carolina boy, 9, dies during hunting trip after his father accidentally shot him on Thanksgiving Day.” 对于局部分类器来说,由于“shot”和“boy”之间的距离较远,因此很难预测“boy”是由“shot”触发的ATTACK事件的受害者(victim)。然而,如图3(b)所示,如果一个实体是DIE事件的受害者(victim),那么在同一句话中,它也可能是ATTACK事件的受害者(victim)。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-EyZUyCnt-1671411133128)(A Joint Neural Model for Information Extraction with Global Features.assets/image-20221217214319593.png)]

在这些观察的激励下,我们设计了一组全局特征模板(事件模式),如表1所示,以捕获跨子任务和跨实例的交互,同时模型填充所有可能的类型以生成特征,并且在训练中学习每一个特征的权重。给出一个图 G G G,我们呈现出他额全局特征向量 f G = { f 1 ( G ) , . . . , f M ( G ) } f_G=\{ f_1(G),...,f_M (G)\} fG={f1(G),...,fM(G)} M M M是全局特征的数量, f i ( ⋅ ) f_i (\cdot) fi()是一个计算某个特性并返回标量的函数:
f i ( G ) = { 1 , G  has multiple ATTACK events  0 ,  otherwise  f_{i}(G)=\left\{\begin{array}{l} 1, G \text { has multiple ATTACK events } \\ 0, \text { otherwise } \end{array}\right. fi(G)={1,G has multiple ATTACK events 0, otherwise 
接下来,ONEIE学习了一个权重向量 u ∈ R M u \in \R^M uRM,将 G G G的全局特征得分计算为 f G f_G fG u u u的点积。我们将 G G G的全局得分定义为其局部得分与全局特征得分之和,即
s ( G ) = s ′ ( G ) + u f G s(G)=s'(G)+u f_G s(G)=s(G)+ufG
我们假设一个句子的正确标准图应该达到最高的全局得分。因此,我们最小化下面的损失函数
L G = s ( G ^ ) − s ( G ) L^G=s(\hat G) - s(G) LG=s(G^)s(G)
G ^ \hat G G^是通过局部分类器得出的预测图, G G G是正确的标准图。

最后,我们优化训练过程中这个联合的目标函数:
L = L I + ∑ t ∈ T L t + L G L=L^I + \sum_{t \in T} L^t +L^G L=LI+tTLt+LG

3.5 解码

正如我们已经讨论过的,由于局部分类器忽略了信息网络中元素之间的相互作用,它们可能会预测相互矛盾的结果,或者无法预测需要来自其他元素的信息的困难边。为了解决这些问题,ONEIE对所有节点及其成对边进行联合决策,以获得全局最优图。基本思想是计算每个候选图的全局得分,并选择得分最高的一个。然而,穷举搜索在很多情况下是不可行的,因为搜索空间的大小会随着节点的数量呈指数增长。因此,我们设计了一个基于波束搜索(beam search)的解码器,如图4所示。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-BEEIFksk-1671411133129)(A Joint Neural Model for Information Extraction with Global Features.assets/image-20221218162059120.png)]

给定一组已识别的节点 V V V和所有节点及其成对链接的标签分数,我们使用初始beam set B = { K 0 } B = \{K_0\} B={K0}执行解码,其中 K 0 K_0 K0是一个零序图。在每一步 i i i,我们在Node step和Edge step中展开 B B B中的每个候选,如下所示。

Node step:我们选择 v i ∈ V v_i \in V viV,定义它的候选集合为 V i = { < a i , b i , l i ( k ) > ∣ 1 ≤ k ≤ β v } V_i = \{ <a_i,b_i,l_i^{(k)}>|1\le k \le \beta_v \} Vi={<ai,bi,li(k)>∣1kβv} l i ( k ) l_i^{(k)} li(k)指的是 v i v_i vi局部得分第 k k k高的标签, β v \beta_v βv是一个超参数,它控制候选标签的数量,我们更新beam set集合:
B ← { G + v ∣ ( G , v ) ∈ B × V i } B \leftarrow \{ G+v |(G,v) \in B \times V_i \} B{G+v(G,v)B×Vi}
Edge step:我们迭代先前选择的结点 v j ∈ V v_j \in V vjV j < i j <i j<i并且在结点 v j v_j vj v i v_i vi之间添加可能的边。注意到,如果 v i v_i vi是一个触发词,我们将跳过 v j v_j vj,如果 v j v_j vj也是一个触发词。在意每一次迭代之后,我们构建了一个侯选边的集合 E i , j = { < j , i , l i , j ( k ) ∣ 1 ≤ k ≤ β e } E_{i,j}=\{ <j,i,l_{i,j}^{(k)}|1 \le k \le \beta_e \} Ei,j={<j,i,li,j(k)∣1kβe} l i , j ( k ) l_{i,j}^{(k)} li,j(k) e i , j e_{i,j} ei,j得分第 k k k高的标签, β e \beta_e βe为候选标签数量的阈值。我们更新beam set通过以下公式:
B ← { G + e ∣ ( G , e ) ∈ B × E i , j } B \leftarrow \{ G+e | (G,e) \in B \times E_{i,j} \} B{G+e(G,e)B×Ei,j}
在每个边缘步骤结束时,如果 ∣ B ∣ |B| B大于beam宽度 θ \theta θ,我们将所有候选按全局分数降序排列,并保留前 θ \theta θ。在最后一步之后,我们返回全局得分最高的图作为输入句子的信息网络。

4、 实验

4.1 数据

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-IU9Ka2j0-1671411133129)(A Joint Neural Model for Information Extraction with Global Features.assets/image-20221218162034021.png)]

我们在自动内容提取(ACE) 2005 dataset上进行了实验,它为英语、中文和阿拉伯语提供了实体、值、时间、关系和事件标注。在Wadden等人的预处理之后,我们在两个数据集上进行了实验,其中包括命名实体和关系标注的ACE05-R,以及包括实体、关系和事件标注的ACE05-E。我们保留了7种实体类型、6种粗粒度关系类型、33种事件类型和22种论元角色。

为了恢复ACE05-R和ACE05-E中缺少的一些重要元素,我们通过添加关系论元、代词和多token事件触发词的顺序创建了一个新的数据集ACE05-E+,这些元素在以前的工作中基本上被忽略了。我们还跳过 <text> \text{<text>} <text>标记之前的行(例如,headline,datetime),因为它们没有标注。

除了ACE之外,我们还从Deep Exploration and Filtering of Test (DEFT)程序下创建的实体、关系和事件(ERE)标注任务中派生出另一个数据集ERE-EN,因为它涵盖了更多最近的文章。具体来说,我们从三个ERE数据集LDC2015E29、LDC2015E68和LDC2015E78中提取了458篇文献和16516句句子。对于ERE-EN,我们保留了7种实体类型、5种关系类型、38种事件类型和20个论元角色。

为了评估模型的可移植性,我们还开发了来自ACE2005的中文数据集和来自ERE (LDC2015E107)的西班牙语数据集。我们将这些数据集分别称为ACE05-CN和ERE-ES。

4.2 实验设置

我们用BertAdam对我们的模型进行了80个epoch的优化,BERT的学习率为5e-5,权重衰减为1e-5,其他参数的学习率为1e-3,权重衰减为1e-3。我们使用bert-base-multilingual-cased模型在ACE05-CN和ERE-ES上进行训练,使用bert-large-cased模型在其他训练数据集上。在Wadden等人之后,我们使用两层FFN,局部分类器的dropout rate为0.4。我们使用150个hidden units进行实体和关系提取,使用600个hidden units进行事件抽取。对于全局特征,我们将 β v \beta_v βv β e \beta_e βe设为2, θ \theta θ设为10。在我们的实验中,我们使用随机种子并报告整个运行的平均分数。我们使用Zhang等人和Wadden等人相同的标准进行评估。

实体:如果实体的偏移量和类型与引用实体匹配,则实体的提及是正确的。

关系:如果关系类型和关系尸体体积的偏移量是正确的,则关系是正确的。

触发器:如果触发词的偏移量与引用触发词匹配,则该触发器将被正确标识(Trig-I)。如果它的事件类型也与引用触发词匹配,则它被正确分类(Trig-C)。

参数:如果论元的偏移量和事件类型与引用论元匹配,则论元被正确识别(Arg-I)。如果它的角色标签也匹配引用论元,那么它就被正确分类(Arg-C)。

4.3 总体的效果

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-4ox4Zbh5-1671411133130)(A Joint Neural Model for Information Extraction with Global Features.assets/image-20221218160208099.png)]

在表3中,我们对比了两个模型:DYGIE++(最先进的端到端IE模型,利用多句子BERT编码和跨度图传播);Baseline遵循ONEIE的体系结构,但只使用BERT的最后一层和局部分类器的输出。我们可以看到,我们的模型在ACE05-R和ACE05-E上的表现始终优于DYGIE++和Baseline。

在Wadden等人中,作者表明,结合触发词检测优化的四个模型集成预测的触发词可以提高事件抽取的性能。虽然我们也在表4中使用四个模型集合来报告我们的结果,以进行公平的比较,但我们认为表3中的单模型分数更好地反映了ONEIE的实际性能,应该用于未来的比较。

表5显示了ONEIE在两个新数据集(ACE05-E+和ERE-EN)上的性能。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-YZTXHhBT-1671411133130)(A Joint Neural Model for Information Extraction with Global Features.assets/image-20221218160839144.png)]

在表6中,我们列出了模型学习到的显著全局特征。以特性9为例,如果一个候选图包含多个ORG-AFF边,该模型将通过在其全局评分中添加一个负值来降级该图。我们还观察到,约9%的全局特征的权重几乎没有更新,这表明它们在正确标准图和预测图中都很少出现。在表8中,我们对具体例子进行定性分析。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-I5yOJyBD-1671411133131)(A Joint Neural Model for Information Extraction with Global Features.assets/image-20221218161040255.png)]

4.4 移植到其他语言

如表7所示,我们在ACE05-CN和ERE-ES上评估了所提出的框架。结果表明,ONEIE可以很好地处理中文和西班牙语数据,而无需为新语言进行任何特殊设计。我们还观察到,添加英语训练数据可以提高在汉语和西班牙语的表现。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-VltoT31H-1671411133131)(A Joint Neural Model for Information Extraction with Global Features.assets/image-20221218162314625.png)]

4.5 存在的挑战

我们分析了剩下的75个错误,在图5中,我们展示了各种错误类型的分布,这些错误类型在未来需要更多的特征和知识获取来解决。在本节中,我们将通过示例讨论一些主要类别。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-bo7LlPim-1671411133132)(A Joint Neural Model for Information Extraction with Global Features.assets/image-20221218162359051.png)]

需要背景知识:目前大多数IE方法忽略了实体属性和场景模型等外部知识。例如以下句子“And Putin’s media aide, Sergei Yastrzhembsky, told Kommersant Russia would not forgive the Iraqi debt”,我们的模型错误地将“Kommersan”识别为个人,而不是组织。在实体连接上,我们根据维基百科页面上的第一句话“Kommersant is a nationally distributed daily newspaper published in Russia mostly devoted to politics and business”来纠正这个错误。

罕见的词:第二个挑战是著名的长尾问题:测试数据中的许多触发词、实体提及(例如“caretaker”、“Gazeta.ru”)和上下文短语很少出现在训练数据中。虽然大多数事件触发词是动词或名词,但一些副词和多词表达也可以作为触发词。

触发词具有多个类型:一些触发词可能同时表示操作的过程和结果状态。例如,“named”可以同时表示NOMINATE和START-POSITION事件;" killed “和” eliminate "可能同时表示ATTACK和DIE事件。在这些情况下,人类基本事实通常只标注过程类型,而我们的系统产生结果事件类型。

需要句法结构:我们的模型可以从更深层次的句法分析中受益。例如,在下面这句话中“As well as previously holding senior positions at Barclays Bank, BZW and Kleinwort Benson, McCarthy was formerly a top civil servant at the Department of Trade and Industry”,我们的模型漏掉了“麦McCarthy”的所有雇主“Barclays Bank”、“BZW”和“Kleinwort Benson”,这可能是因为它们出现在前面的子句中。

不确定事件和隐喻:由于缺乏时态预测和隐喻识别能力,我们的模型错误地将一些未来计划事件标记为具体事件。例如,由“组建”引发的START-ORG并没有出现在下面这句话中:“The statement did not give any reason for the move, but said Lahoud would begin consultations Wednesday aimed at the formation of a new government”。我们的模型还错误地将“camp(营地)”识别为facility(设施),并在下一句“Russia hints ‘peace camp’ alliance with Germany and France is dying by Dmitry Zaks.”中由“dying(死亡)”引发了DIE事件。

IE社区缺少新的带有端到端标注的数据集。遗憾的是,由于长期以来对标注准则的争论,ACE数据集的标注质量并不完美;例如,“goverment(政府)”应该被标记为GPE还是ORG?“dead (死亡)”应该既是实体又是事件触发词吗?我们是否应该将指示词视为提及实体的一部分?

5、相关工作

以前的工作将知识元素之间的相互依赖性编码为整数线性规划框架中的全局约束,以有效地去除抽取误差。这样的完整性验证结果可用于查找违反约束的知识元素,并识别检测器错误或失败的可能实例。受这些先前工作的启发,我们提出了一个具有全局特征的联合神经网络框架,其中在训练过程中学习权重。与Li等人的方法类似,ONEIE也使用全局特征来捕获跨子任务和跨实例的相互依赖关系,而我们的特征是独立于语言的,不依赖于其他NLP工具,如依赖项解析器。我们的方法在局部特征、优化方法和解码过程上也有所不同。

最近的一些研究开发了联合神经网络模型来执行两个IE子任务的抽取,例如实体和关系抽取以及事件和时间关系抽取。Wadden等人设计了一个基于BERT和动态跨度图抽取实体、关系和事件的联合模型。我们的框架通过结合基于跨子任务和跨实例约束的全局特征进行扩展。与Wadden等人使用基于跨度的方法抽取提及不同,我们在框架中采用了基于CRF的标记器,因为它可以抽取任何长度的提及,不受最大跨度宽度的限制。

6、总结和未来工作

我们提出了一个联合的端到端IE框架,它结合了全局特征来捕获知识元素之间的相互依赖关系。实验表明,我们的框架与目前的技术水平获得了更好或相当的性能,并证明了全局特征的有效性。我们的框架也被证明是语言独立的,可以应用于其他语言,它可以从多语言训练中受益。

在未来,我们计划加入更全面的事件模式,从多语言多媒体数据和外部知识自动诱导,以进一步提高IE的质量。我们还计划将我们的框架扩展到更多的IE子任务,如文档级实体共指消解和事件共指消解。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/100503.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

超宽带UWB无线技术,厘米级测距定位,精准位置确定方案应用

UWB标签和锚点之间的双向测距测量它们的相对距离&#xff0c;这种方法用于例如安全访问应用程序&#xff0c;其中将根据标签设备的接近程度授予访问权限。 UWB不能被简单的中继攻击欺骗&#xff0c;因为它的距离测量不是基于信号强度&#xff0c;而是基于时间&#xff0c;中继…

git初识(四)

rebase(变基) 它能让git提交记录简洁 多个记录整合成一个记录 git rebase -i HEAD~3从最新记录开始依次找3条记录进行合并 git rebase -i 版本号从该版本号开始一直合并到最新记录 在做记录合并时&#xff0c;建议不要和已push到仓库的记录 beyond compare 在git的使用过程…

我国盆栽蔬菜行业发展势头向好 未来市场需求将保持持续攀升态势

盆栽蔬菜是指在花盆或其他容器内种植的蔬菜&#xff0c;供人观赏和采摘食用。盆栽蔬菜分为观果类蔬菜、彩色蔬菜、绿叶保健蔬菜、根茎类蔬菜等几类。其中观果类蔬菜包括彩色甜椒、矮生番茄、樱桃番茄、硬果番茄、观赏茄子、小型辣椒、袖珍西瓜及各种南瓜、甜瓜、西葫芦、黄秋葵…

Python 为什么如此设计?

大概两年半前&#xff0c;我萌生了要创作一个新的系列文章的想法&#xff0c;也就是“Python为什么”&#xff0c;试图对 Python 的语法及特性提出“为什么”式的问题&#xff0c;以此加深对它的理解&#xff0c;探寻使用技巧、发展演变、设计哲学等话题。 一直以来&#xff0…

智芯传感微差压气体压力传感器成功入围第三届“SIA感知领航优秀项目征集”年度杰出产品及技术成长型企业组

近日&#xff0c;由中国传感器与物联网产业联盟开展的第三届“SIA感知领航优秀项目征集”结果正式出炉&#xff0c;北京智芯传感科技有限公司&#xff08;以下简称“智芯传感”&#xff09;作为国内领先的MEMS传感器厂商&#xff0c;凭借旗下产品“微差压气体压力传感器”的卓越…

uniapp的生命周期

目录 一、应用生命周期 只能在 App.vue 里执行 1、onLaunch 2、onShow 3、onHide 二、页面生命周期 1、onLoad 监听页面加载 2、onReady 3、onShow 监听页面显示 4、onHide 监听页面隐藏 5、onUnload 监听页面卸载 三、组件生命周期 1、beforeCreate 2、…

Java培训Mycat安装启动

一、 安装启动 1、安装解压 解压缩文件拷贝到linux下 /usr/local/ 2、配置文件介绍 schema.xml 定义逻辑库&#xff0c;表、分片节点等内容 rule.xml 定义分片规则 server.xml 定义用户以及系统相关变量&#xff0c;如端口等 3、 配置文件修改 <?xml version”1.0…

MFC中窗口隐藏后再显示,子窗口没刷新(WS_CLIPCHILDREN,WS_CLIPSIBLINGS)

问题描述 非模态对话框下&#xff0c;显示了子窗口&#xff0c;但窗口隐藏后&#xff0c;再通过任务栏显示出来时&#xff0c;子窗口内容就不显示了。 正确的显示如下&#xff1a; 显示异常的情况 - 原因分析 显示父窗口时&#xff0c;父窗口会进行重绘&#xff08;我的理…

什么是数字化?企业该如何做数字化?

现在大家都在说数字化&#xff0c;数字化到底是什么&#xff1f; 数字化不是万能&#xff0c;只能赋能&#xff0c;数字化转型也不是口号&#xff0c;而是需要在具体规划和业务发展中深入思考和切实贯彻。 如今数字化俨然成为炙手可热的一个高频词汇&#xff0c;不论个人还是…

MySQL#2(数据模型,SQL通用语法,SQL分类)

目录 一.数据模型 二.SQL通用语法 三.SQL的分类 1.DDL DDL---操作数据库 DDL---操作表 2.DML DML---操作数据 3.DQL(重点) 基础查询 条件查询 排序查询 分组查询 分页查询 扩展: 聚合函数 一.数据模型 数据库在内存中是以文件夹的方式存在 数据表和数据是以文件的形式存…

有利润表模板的BI软件有哪些?

要分析利润&#xff0c;就需要制作利润表。有哪些可套用利润表模板的BI软件&#xff1f;关于这个问题&#xff0c;找奥威BI软件就对了。奥威BI软件有一套标准化的数据分析方案&#xff0c;内设数十张数据可视化分析报表模板&#xff0c;其中就包括了利润表模板&#xff0c;下载…

KNN算法预测哪些用户会购买这种全新SUV。并且在最后一列用来表示用户是否购买 项目实战代码+数据

K近邻算法通过计算被分类对象与训练集对象之间的距离,确定其k个临近点,然后使用这k个临近点中最多的分类作为分类结果。 如上图,当K=3时,它会被分类为 Class B。因为K=3时,3个临近点里有2个是B类的。 同理,K=7时它会被分类为 Class A,因为K=7时,7个临近点里4个是A类的…

C. The Third Problem(MEX,思维,组合数)[Codeforces Round #804 (Div. 2)]

题面如下&#xff1a; 思路or题解 因为是MEXMEXMEX问题&#xff0c;我们可以通过维护每一个数的 [l,r][l, r][l,r] 来进行求解 如果 kkk 维护的范围是 [l,r][l, r][l,r] 那么我们在计算 k1k 1k1 的时候可以发现&#xff1a; 在[l1,r−1][l 1, r - 1][l1,r−1] 如果 k1k 1k1…

CS61A 2022 fall lab0

CS61A 2022 fall lab0:Getting Started 不得不感叹实验网站是真的高级… 我打算用ubuntu做实验 文章目录CS61A 2022 fall lab0:Getting StartedIntroductionSetup1.Install a terminal2.Install Python 3Python3.7基于update-alternatives的Python默认版本系统级修改&#xff1…

在设备树中pinctrl的简单使用

目录 1 关于引脚的几个概念 2 设备树中pinctrl节点 2.1 定义各种pin bank 2.2 定义各种group 3 设备节点中要使用某一个 pin group 4 platform_device, platform_driver匹配 5 驱动中想选择、设置某个状态的引脚 6 总结 7 参考文档 1 关于引脚的几个概念 Bank: 以引脚…

NKOJ-P1327【NOIP 2011 DAY2-1】计算系数

希望这篇文章可以带我突破10000访问………… 题目描述 给定一个多项式 (axby)k(axby)^k(axby)k&#xff0c;请求出多项式展开后xnymx^ny^mxnym项的系数; 共一行&#xff0c;包含5 个整数&#xff0c;分别为a,b,k,n,ma,b,k,n,ma,b,k,n,m&#xff0c;每两个整数之间用一个空格隔…

趣谈网络协议-课程介绍

技能收获 掌握网络协议的知识框架&#xff1b;应对大厂面试的协议难题&#xff1b;驾驭网络协议的实用场景。 讲师介绍 刘超&#xff0c;前网易研究院云计算技术部首席架构师&#xff0c;15 年云计算领域研发及架构经验。曾在 EMC 做过类似 GFS 的分布式存储开发&#xff0c;…

【遥感科学】第三章 遥感成像原理

第三章 遥感成像原理与遥感图像特征 一、遥感平台 遥感平台是搭载传感器的工具&#xff0c;按照位置可以分为地面、航空航天航宇&#xff0c;按照作用可分为气象、陆地、海洋等。这里我们主要按照作用领域进行讨论 1.1 气象卫星 气象卫星发展的三个阶段&#xff1a; 20世纪6…

【MySQL】-索引以及树的常用数据结构分析

作者&#xff1a;学Java的冬瓜 博客主页&#xff1a;☀冬瓜的主页&#x1f319; 专栏&#xff1a;【MySQL】 分享&#xff1a;纵一苇之所如&#xff0c;凌万顷之茫然。——《赤壁赋》 主要内容&#xff1a;MySQL中索引的介绍、创建索引、使用索引&#xff1b;索引背后的数据结构…

计算存储分离在京东云消息中间件JCQ上的应用

作者&#xff1a;田寄远 JCQ 全名 JD Cloud Message Queue&#xff0c;是京东云自研、具有 CloudNative 特性的分布式消息中间件。 JCQ 设计初衷即为适应云特性的消息中间件&#xff1b;具有高可用、数据可靠性、副本物理隔离、服务自治、健康状态汇报、少运维或无运维、容器部…