0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

细解读关系抽取SOTA论文

深度学习自然语言处理 来源:深度学习自然语言处理 作者:厂妹 2021-02-10 17:18 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

本文主要详细解读关系抽取SOTA论文Two are Better than One:Joint Entity and Relation Extraction with Table-Sequence Encoders[1], 顺带简要介绍关系抽取的背景,方便完全不了解童鞋。

信息抽取

我们说的信息抽取一般是指从文本数据中抽取特定数据结构信息的一种手段。对于不同结构形式的数据如结构化文本,半结构化文本,自由文本,有各自对应的方案,其中从自由文本中抽取难度最大。总之,我们的目的是希望在海量文本中,快速抽出我们关注的事实。

了解信息抽取必须要知道关系抽取。

关系抽取

大部分情况下,我们喜欢用三元组的数据结构来描述抽取到的信息

三元组

三元组的表达能力非常丰富,几乎所有事情都可以自然或者强行的表达成三元组,比如随便一句”今天天气真冷“ 表达为天气-状态-冷。

三元组与后续的知识图谱工作非常适配,如Neo4j等图数据库就是以三元组为存储单位,图谱的查询推断等工具使用三元组比普通的关系型数据库来的方便的多。

三元组千千万,我应该怎么抽?

Schema

当我们拿到一个信息抽取的任务,需要明确我们抽取的是什么,”今天天气真冷“,我们要抽的天气的状态天气-状态-冷,而非今天-气候-冷(虽然也可以这样抽),因此一般会首先定义好我们要抽取的数据结构模式shcema, 会确定谓词以及主语并与的类型

一个三元组schema的例子,其中Subject_type代表主语类型,Predicate是谓词,Object_type指宾语类型:

Subject_type:人物 Predicate:出生地 Object_type:地点

确定了schema,我们一般如何抽取呢?

常规RE方案

目前主流关系抽取一般两种解决方法

pipline两步走:将关系抽取分解为NER任务和分类任务,NER任务标注主语或宾语,分类主要针对定义的schema中的有限个谓词进行分类。根据具体任务不同,有些可能是两步走或者三步走,pipline任务的顺序先分类还是先标注也会有差异

Pipline优势:每一步分别针对各个任务进行,表征是task-specific, 相对来说精度较高

Pipline缺陷:- 任务有顺序会存在误差传递问题,即在预测时下一步任务会受上一步误差影响,而在训练阶段没有这种误差,因此存在训练和预测阶段的gap- 分开的任务在一句话中多个实体关系时,比较难解决实体和关系的对应问题,以及重叠关系

joint learning:joint learing可以理解为采用多任务的方式,同时进行NER和关系分类任务, 在众多joint learning中最出众的是采用tabel filled 方式,即任务的输出是filled一张有text-sequence构成的表,在表中的位置表达除了词与词的连接,该位置的标注则标出了谓语(如下图)

abb062f2-603d-11eb-8b86-12bb97331649.jpg

优势:1. 两个任务的表征有交互作用可能辅助任务的学习2. 不用训练多个模型,一个模型解决问题,不存在训练与预测时的gap

缺陷:1. 两个任务的表征可能冲突,影响任务效果2. 解决了主谓宾之间的对应关系,无法解决重叠问题3. Fill table本质仍然是转成sequence来fill,未能充分利用table结构信息(下文会解释)

下面重点解读table fill方式的一篇SOTA,解决了joint learning的多任务表征冲突以及为利用table结构信息

RE with Table Sequence

终于来到本篇的主题啦,为了解决一般filled table的问题, 作者提出table-sequence encoder的方法,分别对table和sequence做表征,本文的最大贡献在于

分别对table和sequence做表征(encoder),并设计了一个Table-Guided Attention来对table和sequence进行交互,这样即不会完全共享表征导致对不同的任务表征冲突,也不会丢失表征的相互指导作用

在table encoder中采用多维GRU来捕获更多的句子结构信息

在架构上table encoder和 sequence encoder多层交互

ac3efaee-603d-11eb-8b86-12bb97331649.jpg

下面仔细介绍各个部分,看看它是如何神奇做到SOTA的

Text Embedder

在上图的结构图中,Text Embedder采用类似FLAT分别做了基于lstm的char()和word(),以及基于bert的word ()作为预训练的embedding ,并拼接起来

图中

Table Encoder

整个Table Encoder部分由多个Table Encoding的单元组成,每个Encoding单元的输入分别是起始输入,对应senquence结构的输入,以及上一个Tabel Encoding单元的输出,Table Encoding 采用MDRNN结构提取输入的特征信息,作者在这选择MDGRU(多维度GRU),tabel结构本身有2维,加上前后层实际有4维,但是层的维度信息单向流动,实际上是只用到了3个方向()

aca0965a-603d-11eb-8b86-12bb97331649.jpg

如图所示,是来自sequence的输入,作者分别测了使用所有方向和分别使用几个方向,发现上图中a,c效果类似,这种多维GRU全面的考虑了整个table的结构信息,即一个词的状态跟其他所有词的状态相关,并且受其他词的不同程度的影响,这种影响程度由GRU门控机制控制

Sequence Encoder

sequence Encoder 也由多个sequence encoding够成,sequence encoding结构直接采用transformer中的encoder

acd7cc4c-603d-11eb-8b86-12bb97331649.jpg

只不过将其中的self attention替换为table-guide attention,这种attention的改造非常巧妙,能更好捕捉word-word之间的关系

ad42628c-603d-11eb-8b86-12bb97331649.jpg

正常的dot attention如上图

Table-Guided attention具体来说:

为参数矩阵

采用加性

是table encoder中的table的隐藏节点,该节点由多个方向的经过GRU编码得到,不管是哪个方向它的来源始终是由构造而来,理论上是可以由拟合而来,因此这里直接由 来代替 ,也就是这个attention,其实是计算了table 结构中各个位置对该的权重,是一个四面八方attention

剩下就是transform中正常的LayerNorm 和残差结构了

输出和loss

输出比较常规,loss采用常规

输出:

loss:

实验 and 效果

作者在各个数据集上进行实验,对比各个目前SOTA分别有一定的提高,且时效果最佳,模型参数量不到5M,要什么自行车,附上开源地址[2],作者的代码与论文在attention计算有一丢丢不一致,但是并不影响效果

ad840d72-603d-11eb-8b86-12bb97331649.jpg

责任编辑:xj

原文标题:关系抽取一步到位!

文章出处:【微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 深度学习
    +关注

    关注

    73

    文章

    5590

    浏览量

    123896
  • 自然语言
    +关注

    关注

    1

    文章

    292

    浏览量

    13916
  • nlp
    nlp
    +关注

    关注

    1

    文章

    491

    浏览量

    23188

原文标题:关系抽取一步到位!

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    产品在工程打样阶段极同轴线束的标准型号选型指南

    在工程打样阶段,极同轴线束的标准型号选型,不仅关系到高速信号完整性,还影响项目推进效率。掌握阻抗、线径、带宽与端接方式等核心指标,合理利用标准型号资源,可以让研发团队更快从验证走向量产。
    的头像 发表于 10-03 16:55 1006次阅读
    产品在工程打样阶段极<b class='flag-5'>细</b>同轴线束的标准型号选型指南

    USB3.1传输能用极同轴线吗?要注意哪些选型误区?

    同轴线束确实能够用于 USB3.1 的高速传输,但前提是做好完整的设计与验证工作。若能避开“线越越好”这样的误区,合理平衡电气性能、机械性能与工艺可行性,才能真正发挥极同轴线束在小型化、高速化产品中的优势。
    的头像 发表于 09-26 14:28 1330次阅读
    USB3.1传输能用极<b class='flag-5'>细</b>同轴线吗?要注意哪些选型误区?

    同轴线与传统射频同轴线区别有哪些?

    同轴线束与传统射频同轴线的差别,主要体现在尺寸、传输信号类型、应用场景和加工难度上。前者更多服务于高速数字信号传输,强调小型化与高速性;后者则立足于射频通信,强调稳定性与低损耗。两者并非简单的替代关系,而是在不同应用需求下各有优势。
    的头像 发表于 09-18 15:52 1476次阅读
    极<b class='flag-5'>细</b>同轴线与传统射频同轴线区别有哪些?

    同轴线束能做到多?揭秘高速互连中的极限工艺

    同轴线束不仅可以做到“极”,而且在这种微型化设计中,还能保持高速信号的完整性与传输稳定性。它已经成为现代电子产品小型化和高性能化的幕后功臣。随着材料与工艺的不断提升,未来的极同轴线束必将突破更小的直径极限,并在更多前沿应
    的头像 发表于 09-08 15:02 1171次阅读
    极<b class='flag-5'>细</b>同轴线束能做到多<b class='flag-5'>细</b>?揭秘高速互连中的极限工艺

    同轴线束和柔性电缆(FPC/FFC)的区别

    同轴线束和柔性电缆并不是相互替代的关系,而是针对不同应用需求的两种解决方案:前者在高速、抗干扰、可靠性方面表现突出;后者则在柔性布线和低成本方面具有优势。工程师在设计时,应根据系统的速率需求、空间布局和成本预算做出合理选择。
    的头像 发表于 09-06 15:45 1076次阅读
    极<b class='flag-5'>细</b>同轴线束和柔性电缆(FPC/FFC)的区别

    HarmonyOSAI编程智能代码解读

    CodeGenie > Explain Code,开始解读当前代码内容。 说明 最多支持解读20000字符以内的代码片段。 使用该功能需先完成CodeGenie登录授权。 本文主要从参考引用自HarmonyOS官方文档
    发表于 09-02 16:29

    AURIX tc367通过 MCU SOTA 更新逻辑 IC 闪存是否可行?

    你好专家:我的用例是 MCU 通过 SPI 连接到逻辑 IC,逻辑 IC 连接到 8MB 闪存,但 MCU PFLASH 大小为 2MB,通过 MCU SOTA 更新逻辑 IC 闪存是否可行?
    发表于 08-11 06:36

    求助,关于TC387使能以及配置SOTA 中一些问题求解

    你好, 之前我拿到贵司给一个demo,里面有一些使能以及配置SWAP的代码, 这里有些疑问 问题1. 判断SOTA功能是否生效,demo中使用的是 SCU_STMEM1中的bit位, 代码如下
    发表于 08-08 07:31

    SPI协议,寄存器解读

    最近在学习SPI协议,对寄存器操作不是特别熟练。发帖希望有大佬能从寄存器角度提供帮助,帮忙指导根据手册去解读协议。有偿。
    发表于 05-22 20:08

    老板必修课:如何用NotebookLM 在上下班路上吃透一篇科技论文

    常必要的,这有助于我们理解技术边界,更好地定义产品并做出更精准的投资决策。 一,使用NotebookLM,随身解读科技论文 我经常使用的解读科技论文的工具是Notebook,只需要把科
    的头像 发表于 05-07 16:13 557次阅读
    老板必修课:如何用NotebookLM 在上下班路上吃透一篇科技<b class='flag-5'>论文</b>?

    AFE5801调增益不起作用的原因?怎么解决?

    采用STATIC PGA模式配置AFE5801芯片时,99【2:0】为调增益配置单元,写如0代表0dB,写入7代表0.875dB。但是写入0和7时采集到的数据大小没有发生变化,不知道为什么?
    发表于 01-24 08:00

    AFE5801调增益不起作用是什么原因导致的?

    采用STATIC PGA模式配置AFE5801芯片时,99【2:0】为调增益配置单元,99地址单元分别写的是24\'h990009和24\'h99000f,分别对应着0.125dB
    发表于 01-24 07:01

    Mamba入局图像复原,达成新SOTA

    MambaIRv2,更高性能、更高效率!另外还有ACM MM 2024上的Freqmamba方法,在图像去雨任务中取得了SOTA性能! 显然,这种基于Mamba的方法在图像复原领域,比基于CNN
    的头像 发表于 12-30 18:09 1613次阅读
    Mamba入局图像复原,达成新<b class='flag-5'>SOTA</b>

    MOSFET参数解读

    SGT-MOSFET各项参数解读
    发表于 12-30 14:15 1次下载

    请问AMC1203文档中的OSC过采样率和sinc3滤波器中的抽取率是不是同一个概念?

    1、请问AMC1203文档中的OSC过采样率和sinc3滤波器中的抽取率是不是同一个概念?同为256? 2、抽取率是不是MCLK时钟的分频因子? 3、Combining the ADS1202
    发表于 12-16 06:42