这是一篇关于实体关系联合抽取的工作。关于现有的联合抽取工作,作者提出了两点不足之处:
Feature Confusiong: 用于同样的特征表示进行NER和RE(关系分类)两项任务,可能会对模型的学习造成误解;
现有的基于Table-Filling方法去完成联合抽取的工作,会将表结构转化成一个序列结构,这样导致丢失了重要的结构信息。
因此本文的工作有以下特点:
针对NER和RE,分别学习出不同的序列表示(sequence representations)和表格表示(table representations); 这两种表示能分别捕获任务相关的信息,同时作者还涉及了一种机制使他们彼此交互;
保持表格的结构,通过神经网络结构来捕捉二维表格中的结构信息;同时,引入BERT中的attention权重,进行表格中元素表示的学习。

模型的核心部分包括以下模块:
Text Embedding: 对于一个输入的包含n个words的句子,其词向量、字符向量和BERT词向量的共同构成了每个word的表示。
Table Encoder: 目标在于学出 N×N 表格下的向量表示,表格第i行第j列的向量表示,与句子中的第i个和第j个词相对应,如Figure1所示。文中使用基于GRU结构的MD-RNN(多维RNN)作为Text Encoder,在更新表格中当前cell的信息时,通过MDRNN融合其上下左右四个方向上的信息,从而利用了表格的结构特点;同时引入当前cell所对应的两个词在Sequence Encoder下的表示,使得Table Encoder和Sequence Encoder之间发生信息的交流;

Sequence Encoder: Sequence Encoder的结构与Transformer类似,不同之处在于将Transformer中的scaled dot-product attention 替换为文中提出的 table-guided attention。具体地,将Transformer中计算Q,K之间分值的过程直接替换为对应两个word在table中对应的向量:

由于 T_ij 融合了四个方向上的信息,能够更加充分的捕捉上下文信息以及词与词之间的关系,同时也使Table Encoder和Sequence Encoder之间产生了双向的信息交流。

Exploit Pre-trained Attention Weights: Text Embeddings部分有用到BERT,因此将BERT中各个层上多头attention每个头上的atention权重堆叠起来,得到张量T l ∈ R N × N × ( L l × A l ) T^{l} in mathbb{R}^{N imes N imes (L^l imes A^l)} T和 Text Embedding中每个词的表示,来构成Table的初始输入:


作者通过在不同数据集上的实验证明了模型的有效性,并通过消融实验进行了相关的分析。
责任编辑:xj
原文标题:【EMNLP2020】用填表的方式进行实体关系联合抽取
文章出处:【微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。
-
自然语言处理
+关注
关注
1文章
630浏览量
14724 -
nlp
+关注
关注
1文章
491浏览量
23345
原文标题:【EMNLP2020】用填表的方式进行实体关系联合抽取
文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
PCIe 5.0 E1.S硬盘盒重磅上市!可抽取式托盘+主动散热,免开箱秒换SSD
AD8386:高性能10位12通道输出抽取式LCD驱动器的全方位解析
ICY DOCK存储解决方案:剪辑师的工作流革命
自然语言处理NLP的概念和工作原理
探究PCB样板贴片技术特点
一个经典的结构体和联合体共用的实例
高效部署磁盘阵列:选对硬盘抽取盒,省心又强力
IMU+多相机高速联合自动标定方案
请问RT-Thread与stm32cubemx联合开发的原理是什么?
解决超声波清洗机出水压力不足的7个方法
浮思特 | 红外激光模组工作原理:科技的神奇之处
开源欧拉社区AI联合工作组正式成立
软通动力加入openEuler社区AI联合工作组
【硬盘抽取盒民主实验】你的真话,决定产品命运!敢说就送!
【ICY DOCK 新品 MB601V5K-B】2.5英寸 U.2/U.3 NVMe PCIe 5.0转3.5英寸硬盘抽取盒(1 x MCIO 4i SFF-TA-1016)
NLP:现有联合抽取工作的不足之处
评论