0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

文本生成任务中引入编辑方法的文本生成

深度学习自然语言处理 来源:哈工大讯飞联合实验室 作者:吴珂 2021-07-23 16:56 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

4. FELIX

FELIX是Google Research在“FELIX: Flexible Text Editing Through Tagging and Insertion”一文中提出的文本生成模型,该论文发表于EMNLP 2020 Findings。
受限于有限的编辑操作标签,LaserTagger、Seq2Edits主要进行单词或短语的保留、删除、替换操作,更多的是对文本的局部编辑,无法直接改变文本的结构特征(例如主动句改被动句:“They ate steak for dinner.” “Steak was eaten for dinner.”)。

同时,受限于词典规模,LaserTagger与Seq2Edits也不支持大量插入新文本。而如果使用自回归的方法来支持大量插入新文本,势必大大降低模型的推理速度。所以,FELIX希望能够兼顾文本生成的推理速度和灵活性。

本篇工作的主要改进有:
(1)在保留、删除等基本编辑操作上引入重排序(reorder)操作。通过重排序操作,在复用重复文本的同时实现文本结构特征的改变,提高文本生成的灵活性。
(2)受BERT自监督预训练任务启发,通过引入Masked Language Model(MLM)来预测待插入的新词。

4.1 主要方法

FELIX将文本生成分为两步:通过标注模型(tagging model)对源文本标注编辑标签后进行重排序,然后输入插入模型(insertion model)对要插入的新文本进行预测。

标注

以图10为例,源文本为 “The big very loud cat.” ;目标文本为 “The noisy large cat.” 。其中为tagger模块预测的标签序列;为经过Pointer重排序后加入特殊标签(, )得到的序列,将输入插入模型预测得到最终结果。

7e9bb49e-e0fb-11eb-9e57-12bb97331649.png

图 10 FELIX对插入文本的两种预测方式

FELIX对编码后的源文本进行标注,保留操作和删除操作标签仍为和。结合MLM,FELIX设计了两种方式预测要插入的新文本:Masking 和 Infilling 。Masking 方式不仅需要模型预测插入内容,还需要模型预测插入文本的长度(如,对应中加入两个标签)。

Infilling 方式直接让模型预测待插入的新文本的内容,不需要模型预测插入文本的长度。即,在中插入固定个数的标签(实验中插入8个即可覆盖99%的样本),预测插入内容时多余的标签使用标签覆盖。

需要注意的是,在将输入到MLM进行预测时,FELIX保留了待删除的span(用一对特殊的token 和 将span括起来,而非直接将待删除部分替换为标签)。即使这样做会导致fine-tuning和pre-training的不一致,但能够保留更多的语义信息,提高模型预测的准确性。

重排序

为了保证推理效率,FELIX的重排序也是非自回归(non-autoregressive)的,类似于non-projective dependency parsing。具体实现时使用constrained beam search来保证除了待删除的token外,每一个token都会被指向,且避免有token被指向两次而产生循环。

4.2 模型概述

FELIX tagging model:

Encoding: 使用12层的BERT-base模型对源文本进行编码。

Tagging: 使用一层feed-forward layer预测标签。

Pointing: 基于注意力机制的pointer network进行重排序。

FELIX insertion model:

12层的BERT-base模型。并使用预训练权重进行初始化。

5. 实验评价

三篇工作分别在句子融合、句子分割复述、语法纠错等多种文本生成任务上进行了实验,主要验证了模型在三方面的性能:生成文本的质量、模型推理效率以及模型在小样本上的表现。

句子融合(Sentence Fusion)
句子分割复述(Split & Rephrase)
文本摘要(Summarization)
语法纠错(Grammatical Error Correction)
文本规范化(Text Normalization)
文本简化(Text Simplification)
自动后编辑(Automatic Post-Editing)
LaserTagger Seq2Edits FELIX

5.1 生成质量

句子融合 & 分割复述

三篇工作均在句子融合任务上进行了实验,使用数据集为DiscoFuse,评价指标为SARI、Exact。其中SARI将预测输出与输入文本以及reference比较,评价模型对源文本进行各种编辑操作后生成文本的“好坏”;Exact主要评价模型生成的文本和标准答案之间“有多接近”。

SARI Exact
full sequence model BERT2BERT 89.52 63.90
Seq2SeqBERT 85.30 53.60
edit-based model LaserTagger 85.45 53.80
Seq2Edits 88.73 61.71
FELIX 88.78 61.31

从上表中可以看出,基于编辑方法的生成模型较之传统full sequence model在生成文本的质量上有下降,但改进后的Seq2Edits和FELIX在两项指标上已经和full sequence model十分接近。

LaserTagger和Seq2Edits均在句子分割复述任务上进行了实验。该任务为句子融合任务的逆任务,使用数据集为WikiSplit 。Seq2Edits在该项任务上表现较优。

SARI Exact
full sequence model Seq2SeqBERT 62.3 15.1
edit-based model LaserTagger 61.7 15.2
Seq2Edits 63.6 17.0

文本简化

Seq2Edits和FELIX均在文本简化任务上进行了测试,并与LaserTagger进行了对比。该任务需要在保持源文本基本语义的情况下,通过改写降低源文本的复杂度,以方便儿童等特殊群体阅读。实验使用数据集为WikiLarge,评价指标为SARI。在该项任务上FELIX有着较好的表现。

SARI
edit-based model LaserTagger 32.31
Seq2Edits 37.16
FELIX 38.13

5.2 推理效率

在推理效率方面三篇工作均与传统full sequence model进行了对比实验,结果证明相较于传统seq2seq方法,基于编辑方法确实能够大大提高模型的推理速度。在推理速度上对三种模型进行横向对比,FELIX最优,而Seq2Edits由于模型本身的复杂性,在三者中速度最慢(FELIX > LaserTagger > Seq2Edits)。

5.3 小样本表现

LaserTagger和FELIX两篇工作均在小样本训练数据上测试了模型性能。相比full sequence model而言,LaserTagger和FELIX两者对训练数据规模变化并不敏感(训练数据规模从45k缩小到4.5k时full sequence model性能出现了较大下降),且在小样本数据上FELIX表现要好于LaserTagger。

6. 总结

LaserTagger token-level;
保留、删除、插入
根据训练数据构造短语词典,从词典中直接选择。 一轮序列标注;
非自回归;
加速10x-100x (相比SEQ2SEQBERT)
Seq2Edits span-level;
三元组
不同任务有不同tag vocabulary
open-vocab 预测N个三元标签组;
自回归;
加速5.2x(相比 full sequence model)
FELIX token-level;
保留、删除、MASK、重排序
open-vocab
用MLM预测MASK对应的token
标注+重排序+MLM;
非自回归;
加速100x(相比 full sequence model)
模型 编辑操作 插入新文本 推理方式 推理效率

基于编辑方法的文本生成优势与不足主要如下:

与full sequence models相比,推理速度大大加快。
模型输出可解释性强。
对训练数据规模较不敏感;在小样本上表现较好。
遵循较弱的语言模型。
生成的灵活性不足。
Pros Cons

未来工作的关键在于生成质量和推理效率的对立统一。目前基于编辑方法使用非自回归预测输出时,虽然能够提高推理效率,但势必会损失生成文本的质量。因此,质量和效率尽量做到“鱼与熊掌二者兼得”将成为未来研究工作的希冀。

References

[1] Malmi, Eric, et al. "Encode, tag, realize: High-precision text editing." arXiv preprint arXiv:1909.01187 (2019).

[2] Stahlberg, Felix, and Shankar Kumar. “Seq2Edits: Sequence Transduction Using Span-level Edit Operations.” arXiv preprint arXiv:2009.11136 (2020)。

[3] Mallinson, Jonathan, et al. “Felix: Flexible text editing through tagging and insertion.” arXiv preprint arXiv:2003.10687 (2020)。

[4] https://ai.googleblog.com/2020/01/encode-tag-and-realize-controllable-and.html

[5] https://ai.googleblog.com/2021/05/introducing-felix-flexible-text-editing.html

[6] https://thinkwee.top/2021/05/11/text-edit-generation/

编辑:jq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 文本
    +关注

    关注

    0

    文章

    120

    浏览量

    17911

原文标题:基于编辑方法的文本生成(下)

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    工作流大模型节点说明

    大模型节点是平台提供的基础节点之一,开发者可以在该节点使用大语言模型处理任务。 节点说明 大模型节点可以调用大型语言模型,根据输入参数和提示词生成内容,通常用于执行文本生成任务,例如文
    发表于 03-19 14:56

    如何在Arm Neoverse N2平台上提升llama.cpp扩展性能

    跨 NUMA 内存访问可能会限制 llama.cpp 在 Arm Neoverse 平台上的扩展能力。本文将为你详细分析这一问题,并通过引入原型验证补丁来加以解决。测试结果表明,在基于 Neoverse N2 平台的系统上运行 llama3_Q4_0 模型时,该补丁可使文本生成
    的头像 发表于 02-11 10:06 292次阅读

    Linux Shell文本处理神器合集:15个工具+实战例子,效率直接翻倍

    在 Linux 系统文本是数据交互的 “通用语言”—— 日志文件、配置文件、数据报表、程序输出几乎都以文本形式存在。手动编辑文本不仅繁琐
    的头像 发表于 02-03 15:42 2616次阅读
    Linux Shell<b class='flag-5'>文本</b>处理神器合集:15个工具+实战例子,效率直接翻倍

    泰克MP5000系列的TSP Toolkit I-V脚本生成功能

    。这一全新功能(当前为Beta测试版本),允许您为MP5000系列模块化精密测试系统的每个SMU或PSU模块配置多种输出的偏置与扫描操作,并可自动生成用于测试流程的TSP脚本。
    的头像 发表于 11-24 13:53 3113次阅读
    泰克MP5000系列的TSP Toolkit I-V脚<b class='flag-5'>本生成</b>功能

    万里红文本生成算法通过国家网信办备案

    近日,国家互联网信息办公室发布了第十四批深度合成服务算法备案信息,北京万里红科技有限公司(以下简称:万里红)自主研发的“万里红文本生成算法”正式通过备案。该算法致力于通过自动化的方式,提升知识问答、RAG分类、预测、文档生成的准确率,确保信息的安全性和合规性,为用户提供及
    的头像 发表于 11-14 09:06 793次阅读

    飞凌嵌入式ElfBoard-常用编辑器之Vim编辑

    模式下可以进行光标的移动、复制、粘贴、删除。处于其他模式时,按下Escape(Esc)键返回一般模式2.命令模式该模式下以执行保存文件,以及查找、替换等任务。3.编辑模式在“一般模式”下按下字母i进入编辑模式,该模式下进行
    发表于 10-13 08:47

    HarmonyOSAI编程编辑区代码生成

    Hide ‘Inline Edit’ Overlay选项。 在对话框输入所需要的代码功能描述,在键盘输入回车开始生成。点击Stop Generation,可中断本轮代码生成过程。 生成
    发表于 08-20 15:24

    AI生成的测试用例真的靠谱吗?

    软件测试正经历一场深刻的技术革命。AI,尤其是以GPT、通义千问、文心一言、Claude等为代表的大语言模型(LLM),开始广泛介入测试流程:从需求分析、测试用例设计,到脚本生成与测试报告撰写,AI
    的头像 发表于 08-01 10:02 1894次阅读
    AI<b class='flag-5'>生成</b>的测试用例真的靠谱吗?

    速看!EASY-EAI教你离线部署Deepseek R1大模型

    和自然语言推理等复杂任务。作为国产AI大数据模型的代表,凭借其卓越的推理能力和高效的文本生成技术,在全球人工智能领域引发广泛关注。本文主要说明DeepSeek-R1
    的头像 发表于 07-25 15:22 1560次阅读
    速看!EASY-EAI教你离线部署Deepseek R1大模型

    Copilot操作指南(一):使用图片生成原理图符号、PCB封装

    的操作方法。  ”   图片生成原理图符号(Symbol) Copilot 支持图片生成原理图符号功能,支持原理图编辑器与符号编辑器两种场景
    的头像 发表于 07-15 11:14 5202次阅读
    Copilot操作指南(一):使用图片<b class='flag-5'>生成</b>原理图符号、PCB封装

    飞书开源“RTV”富文本组件 重塑鸿蒙应用富文本渲染体验

    更高效的富文本解决方案。 富文本作为内容展示和信息交互的重要形式,在内容创作、办公协作、教育学习、企业应用等多种复杂业务场景扮演着重要角色。随着鸿蒙生态应用类型的不断丰富,富文本渲染
    的头像 发表于 07-11 15:20 770次阅读
    飞书开源“RTV”富<b class='flag-5'>文本</b>组件 重塑鸿蒙应用富<b class='flag-5'>文本</b>渲染体验

    基于Arm架构的新款联想Chromebook Plus设备亮相

    从实时文本生成、摘要提炼,到智能助手与高级搜索,人工智能 (AI) 已成为现代消费电子设备体验不可或缺的要素,正在重新定义人们工作与娱乐的方式。
    的头像 发表于 07-03 14:43 1349次阅读

    关于鸿蒙App上架“AI文本生成模块的资质证明文件”的情况说明

    检查结果为“通过”或审核状态为“审核通过”。 那么对于这个问题,我也是尝试去解决……这里分享一下我了解到的情况和方法 首先,这个政策虽然说是针对AI文本生成模块,但实际上,针对的是所有调用了AI大模型
    发表于 06-30 18:37

    边缘生成式AI面临哪些工程挑战?

    本文由TechSugar编译自electronicdesign当大多数人想到人工智能(AI)时,他们通常能想到的是能够生成文本、图像或语音内容的应用。像ChatGPT这样流行的文本应用(在几天
    的头像 发表于 06-25 10:44 1269次阅读
    边缘<b class='flag-5'>生成</b>式AI面临哪些工程挑战?

    生成式人工智能认证:重构AI时代的人才培养与职业跃迁路径

    ,恰似一座连接技术前沿与个体成长的桥梁,既承载着时代对人才的迫切需求,也指向着未来职场的核心竞争力。 一、技术革命的双重性:赋能与失衡并存 生成式人工智能的突破性,在于其首次让机器具备了“无中生有”的创造力。从文本生成到图像
    的头像 发表于 05-23 09:29 982次阅读