0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NLP:面向方面级情感分类的注意力转移网络

深度学习自然语言处理 来源:深度学习自然语言处理 作者:赵飞 2021-02-10 16:59 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

01

研究动机

方面级情感分类(英文叫Aspect-level Sentiment Classification,简称ASC)旨在检测句子中给定意见目标的情感极性。意见目标(也称为方面术语)是指评论中描述实体方面的单词或短语。如图1所示,"服务很好,但食物却很糟糕"这句话包含两个意见目标,即"食物"和"服务"。用户对目标"服务"的看法是正面的,而对目标"食物"的看法却是负面的。

94d22b88-603d-11eb-8b86-12bb97331649.png

图1: 包含多个意见目标的句子示例

从上面的例子中我们可以看到,一个句子有时会包含多个意见目标,并且它们可能表达不同的情感极性,因此ASC的一个主要挑战是如何为不同的意见目标获取到不同的情感上下文。为此,大多数方法运用注意力机制(Bahdanau et al., 2014)来捕获与给定目标相关的情感词,然后将其汇总以进行情感预测。尽管注意力机制是有效的,但我们认为由于ASC标注数据是有限的,因此它未能充分发挥注意力机制的潜力。众所周知,深度学习的结果很大程度上取决于训练数据的多少。但是,在实际情况中,ASC数据的注释费时且昂贵,因为注释者不仅需要识别句子中所有的意见目标,而且还需要判断其相应的情感极性。注释困难导致现有公开的数据集都相对较小,这严重限制了注意力机制的潜力。

尽管缺少ASC数据,但是在线评论网站(例如Amazon和Yelp)可以提供大量的文档级情感分类(DSC)标记数据。这些评论中包含了大量的情感知识和语义模式。因此,一个有意义但具有挑战性的研究问题是如何利用资源丰富的DSC数据来提升低资源任务ASC。为此,He et al. (2018) 设计了PRET + MULT框架,通过共享浅层的embedding嵌入和LSTM层将情感知识从DSC数据传递到ASC任务。受胶囊网络的启发(Sabour et al., 2017),Chen and Qian (2019)提出TransCap模型,它共享底部的三个胶囊层,然后仅在最后一个ClassCap层中分离了两个任务。从根本上说,PRET + MULT和Transcap通过共享参数和多任务学习来提升ASC,但是它们不能准确地控制和解释要传输的知识。

为了解决上述提到的两个问题,在这项工作中,我们提出了一种新颖的框架,即注意力转移网络(ATN),它从DSC任务中显式的转移注意力知识,以提高ASC任务中意见目标的注意力能力。与PRET + MULT和Transcap相比,我们的模型获得了更好的结果并保留了良好的可解释性。

02

解决方案

图1显示了注意转移网络(ATN)的总体组织结构。在ATN框架中,我们分别采用了两个基于注意力的BiLSTM网络作为DSC和ASC的基础模块,并提出了两种将DSC中的注意力知识迁移到ASC的新方法。

953fa7bc-603d-11eb-8b86-12bb97331649.png

图2: 注意力迁移网络(ATN)的整体架构

第一种迁移方法称为注意力引导。具体来说,我们首先在大规模的DSC数据集上预训练一个基于注意力的BiLSTM网络,然后利用DSC模块中的注意力权重作为学习信号来引导ASC模块更准确地捕捉情感线索,从而取得很好的结果。注意力引导通过辅助监督信号学习DSC模块的注意力能力,但是,它不能在测试阶段利用DSC模块的注意力权重,并且浪费了预先训练的知识。为了充分利用额外的注意能力,我们进一步提出了注意力融合方法来直接将它们合并。

这两种方法虽然工作方式不同,但是都有各自的优点。注意力引导的目的是学习DSC模块的注意力能力,由于在测试阶段不使用DSC的外部注意力,因此具有更快的推理速度,而注意力融合可以利用DSC模块在测试阶段的注意力知识,做出更全面的预测。

03

实验

我们在SemEval 2014 Task 44 (Pontiki et al., 2014)的两个ASC基准数据集上评估了模型的性能。 它们分别包含来自laptop和restaurant领域的商品评论。我们在所有数据集中删除了极性冲突的样本。ASC数据集的统计数据如表1所示:

表1:ASC数据集的统计信息

95e0cab6-603d-11eb-8b86-12bb97331649.png

为了对DSC模块进行预训练,我们使用了两个DSC数据集,分别是YelpReview和AmazonReview(Li et al., 2018a)。DSC数据集Yelp Review包含的注意力知识迁移到ASC数据集Restaurant。而laptop的注意力知识来自AmazonReview。表2显示了它们的统计信息。在这项工作中,我们采用Accuracy和Macro-F1作为评估ASC任务中不同方法的性能指标。

表2:DSC数据集的统计信息

995f13c8-603d-11eb-8b86-12bb97331649.png

主要结果如表3所示。我们将结果分为三类:第一类列出了ASC任务的经典方法,第二类给出了两种基于迁移的现有方法,最后一类是我们的基础ASC模型和两个增强版本。我们分别使用ATN-AG和ATN-AF来表示使用了注意力引导和注意力融合的ATN。

表3:主实验结果(%)

9caeff02-603d-11eb-8b86-12bb97331649.png

我们的基础ASC模型-基于注意力的BiLSTM通过位置嵌入得到了增强,其性能优于某些基于注意力的模型(如ATAE-LSTM和IAN)。这个结果表明位置嵌入对于在ASC任务中建模目标信息是有益的。在此基础上,我们的注意力转移模型ATN-AG和ATN-AF在restaurant数据集上的Accuracy分别提高了约1%和2%,在laptop数据集上提高了2.8%。此外,它们超过了两种使用了转移知识的现有方法,即PRET + MULT和Transcap。

这些结果证明了我们提出的将注意力知识从资源丰富的DSC数据转移到ASC任务的有效性。与ATN-AG相比,ATN-AF在restaurant数据集上具有更好的性能。这是合理的,因为在测试阶段,ATN-AG无法利用DSC模块的注意力权重。尽管如此,ATN-AG仍在laptop数据集上获得了有竞争力的结果,并且推理速度比ATN-AF快。

为了研究DSC数据集大小对我们方法的影响,我们将DSC数据的百分比从0%更改为100%,以报告ATN-AG和ATN-AF的结果。临界值0%和100%分别表示无DSC数据和使用完整的DSC数据集。结果如图2所示:

a08d5c18-603d-11eb-8b86-12bb97331649.png

图3: 在不同百分比的DSC数据下ATN-AG和ATN-AF的性能

为了分析超参数λ对ATN-AG的影响,我们在[0,1]中对其进行调整以进行实验,步长为0.1。 图3显示了restaurant和laptop数据集上具有不同λ的ATN-AG的性能:

a511fe10-603d-11eb-8b86-12bb97331649.png

图4: 超参数λ对ATN-AG的影响

在ATN模型中,我们提出了注意力指导和注意力融合的方法,以帮助ASC模块更准确地捕获情感线索。为了验证这一点,我们分析了数十个测试集中的示例。与基础ASC模型相比,我们发现注意力转移方法可以处理低频情感词和诸如否定之类的复杂情感模式。表4显示了两个示例的注意力可视化结果以及在模型ATN-AG和ATN-AF下的相应情感预测。

a5b0606e-603d-11eb-8b86-12bb97331649.png

图5: ATN-AG和ATN-AF的注意力可视化结果,较深的颜色表示较高的注意力权重

04

总结

标注数据不足会限制基于注意力的模型对ASC任务的有效性。 本文提出了一种新颖的注意力转移框架,其中设计了两种不同的注意力转移方法,以利用资源丰富的文档级情感分类语料库中的注意力知识来增强资源贫乏的方面级情感分类的注意力过程,最终达到改善ASC性能的目标。 实验结果表明,我们的方法优于最新技术。 进一步的分析验证了从DSC数据转移注意力知识到ASC任务的有效性和好处。

责任编辑:xj

原文标题:【COLING2020】面向方面级情感分类的注意力转移网络

文章出处:【微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 情感识别
    +关注

    关注

    1

    文章

    10

    浏览量

    7716
  • 自然语言
    +关注

    关注

    1

    文章

    292

    浏览量

    13916
  • nlp
    nlp
    +关注

    关注

    1

    文章

    491

    浏览量

    23188

原文标题:【COLING2020】面向方面级情感分类的注意力转移网络

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    湘军,让算变成生产

    脑极体
    发布于 :2025年11月25日 22:56:58

    华为发布面向移动网络的多智能体系统创新成果

    近日,华为无线MAE产品线总裁赵振龙在主题发言《AgenticRAN,多智能体协同激发无线网络数智化生产》中正式向业界发布面向移动网络的多智能体系统(RAN Multi-Agent
    的头像 发表于 10-09 16:44 2176次阅读

    广和通发布端侧情感对话大模型FiboEmo-LLM

    9月,广和通正式发布自主研发的端侧情感对话大模型FiboEmo-LLM。该模型专注于情感计算与自然语言交互融合,致力于为AI玩具、智能陪伴设备等终端场景提供“情感理解-情感响应”一体化
    的头像 发表于 09-26 13:37 1597次阅读

    华为AI WAN助力算城域网开启新征程

    近日,中国电信股份有限公司研究院在未来网络大会上推出了《算城域网白皮书(2025)》,进一步明确了城域网络面向业务新场景、新需求下需
    的头像 发表于 09-16 14:58 753次阅读

    小白学大模型:大模型加速的秘密 FlashAttention 1/2/3

    在Transformer架构中,注意力机制的计算复杂度与序列长度(即文本长度)呈平方关系()。这意味着,当模型需要处理更长的文本时(比如从几千个词到几万个词),计算时间和所需的内存会急剧增加。最开始
    的头像 发表于 09-10 09:28 4314次阅读
    小白学大模型:大模型加速的秘密 FlashAttention 1/2/3

    华为面向拉美地区发布全新星河AI数据中心网络方案

    在华为数据通信创新峰会2025拉美站期间,以“星河AI数据中心网络,赋AI时代新动能”为主题的分论坛上,华为面向拉美地区发布全新升级的星河AI数据中心网络方案。该方案依托AI大脑、AI联接、AI网元三层
    的头像 发表于 08-11 10:42 1995次阅读

    华为面向中东中亚地区升级星河AI网络

    面向中东中亚地区发布星河AI网络最新产品及解决方案,通过全面升级园区、广域、数据中心及网络安全等场景的产品与方案,以“AI-Powered智慧联接”助力当地把握智能化发展新机遇,提升数智生产
    的头像 发表于 05-21 15:55 730次阅读

    华为面向中东中亚地区发布全新星河AI数据中心网络

    近日,在华为数据通信创新峰会2025中东中亚站期间,以“星河AI数据中心网络,赋AI时代新动能”为主题的分论坛上,华为面向中东中亚地区发布全新升级的星河AI数据中心网络方案。该方案基于AI大脑、AI
    的头像 发表于 05-21 15:49 676次阅读

    经颅电刺激适应症之tDCS治疗注意力缺陷ADHD

    ADHD是常见神经行为障碍,症状包括注意力不集中、多动和冲动,儿童和青少年患病率为5%-7.2%,成人在1%-10%,男孩多于女孩,成年后部分症状会持续,引发多种并发症,给个人、家庭和社会带来
    的头像 发表于 04-22 19:49 143次阅读
    经颅电刺激适应症之tDCS治疗<b class='flag-5'>注意力</b>缺陷ADHD

    洲明科技推出DeepSeek满血版AI全息情感陪伴舱

    在这个科技日新月异的时代,人工智能正以前所未有的速度融入日常生活。从生产工具到情感陪伴,随着DeepSeek等大模型加速进化,AI不仅正重塑产业格局,更在改变人类与世界的交互方式。
    的头像 发表于 03-07 16:52 1215次阅读

    华为面向海外全面升级星河AI网络

    MWC25巴塞罗那期间,在“星河AI网络,全面跃升行业智能化”IPClub技术菁英汇峰会上,华为面向海外全面升级星河AI网络,助力客户加速企业数智化转型。
    的头像 发表于 03-06 11:18 1266次阅读

    签约顶级封装厂,普莱信巨量转移技术掀起晶圆封装和板封装的技术革命

    经过半年的测试,普莱信智能和某顶级封装厂就其巨量转移式板封装设备(FOPLP)设备XBonder Pro达成战略合作协议,这将是巨量转移技术在IC封装领域第一次规模化的应用,将掀起晶圆
    的头像 发表于 03-04 11:28 1102次阅读
    签约顶级封装厂,普莱信巨量<b class='flag-5'>转移</b>技术掀起晶圆<b class='flag-5'>级</b>封装和板<b class='flag-5'>级</b>封装的技术革命

    基于Raspberry Pi 5的情感机器人设计

    Raspberry Pi 5相较于上一代搭载了更强的处理器和硬件性能,为情感机器人的开发提供了前所未有的可能性。其支持多任务处理和实时计算,为语音交互和情感判断提供了坚实的基础。此外配合高性能的摄像头模块和传感器,机器人能够捕捉环境信息,真正做到 “知人知面” 。
    的头像 发表于 02-26 14:28 1561次阅读
    基于Raspberry Pi 5的<b class='flag-5'>情感</b>机器人设计

    《AI Agent 应用与项目实战》阅读心得2——客服机器人、AutoGen框架 、生成式代理

    机制在实现上采用了自注意力网络,能够对历史行为进行多角度的评估和总结,这种设计让代理具备了自我改进的能力。在环境交互方面,项目采用了基于图的环境表示方法,每个节点代表一个环境状态,边表示可能的转换
    发表于 02-25 21:59

    如何使用MATLAB构建Transformer模型

    LanguageProcessing, NLP)中的序列到序列任务,如机器翻译。Transformer 通过引入自注意力机制使得处理长距离依赖关系时变得高效。因此 Vaswani 等人的论文强调“注意力是所需的一切”。
    的头像 发表于 02-06 10:21 5719次阅读
    如何使用MATLAB构建Transformer模型