0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

关于“NLP中的迁移学习”的教程

DPVg_AI_era 来源:lq 2019-06-23 10:11 次阅读

近日,在美国明尼苏达州明尼阿波利斯的NAACL2019上,Sebastian Ruder, Matthew Peters, Swabha Swayamdipta和Thomas Wolf分享了一个长达238页PPT关于“NLP中的迁移学习”的教程,今天拿来和大家分享。

经典的监督机器学习范式是基于对使用单个数据集的任务的单个预测模型的孤立学习。这种方法需要大量的训练示例,并且对于定义明确、范围狭窄的任务效果最好。迁移学习指的是一组方法,这些方法通过利用来自其他域或任务的数据来训练具有更好泛化特性的模型来扩展此方法。

近两年来,自然语言处理(NLP)领域出现了几种转移学习方法和体系结构,这些方法和体系结构大大提高了NLP任务的先进性。

这些改进,加上这些方法的广泛可用性和易集成性,使人们想起了导致计算机视觉中预训练字嵌入和ImageNet预训练成功的因素,并表明这些方法很可能成为NLP中的一种常用工具以及一个重要的研究方向。

我们将概述NLP中的现代迁移学习方法,如何对模型进行预培训,它们所学习的表示捕获哪些信息,并回顾有关如何在下游NLP任务中集成和适应这些模型的示例和案例研究。

什么是迁移学习?

(a)传统机器学习的学习过程:

任务1:学习系统

任务2:学习系统

任务3:学习系统

(b)迁移学习的学习过程:

源任务:知识

目标任务:学习系统

为什么是NLP迁移学习?

许多NLP任务都有共同的语言知识(例如语言表示、结构相似性)

任务可以互相通知,例如语法和语义

注释数据很少,尽可能多地利用监督

从经验上讲,迁移学习已经在SOTA形成了许多被监督的NLP任务(例如分类、信息提取、问答等)

为什么是NLP迁移学习?(凭经验)

在命名实体识别(NER)CONLL-2003(英语)上随着时间推移的表现

NLP中迁移学习的类型

本教程到底讲什么?

本教程讲的是什么,不讲的是什么:

目标:提供NLP中迁移方法的广泛概述,重点介绍截至目前(2019年年中)最成功的经验方法。

提供实用的、实际操作的建议→在教程结束时,每个人都有能力将最新进展应用到文本分类任务中。

不讲的是什么:全面的(不可能在一个教程中涵盖所有相关的论文!)

(Bender Rule: 本教程主要是针对用英语完成的工作,其他语言的可扩展性取决于监督是否可用。)

框架:

1、介绍

2、预训练

3、代表中有什么?

4、适应

5、下游

6、开放问题

顺序迁移学习

了解一个任务/数据集,然后迁移到另一个任务/数据集

预训练:

word2vec

GloVe

skip-thought

InferSent

ELMo

ULMFiT

GPT

BERT

适应:

分类

序列标记

问答

预培训任务和数据集

未标记数据和自我监督:

易于收集的大型语料库:维基百科、新闻、网络爬虫、社交媒体等。

训练利用了分布假设:“你应该知道它所保存的一个词”(Firth,1957),通常形式化为训练某种语言模型的变体。

注重高效算法利用丰富的数据

监督预培训:

在视觉上非常常见,由于缺乏大的监控数据集,在NLP中较少见。

机器翻译

句子表达的NLI

从一个问答数据集到另一个问答数据集的任务特定传输

目标任务和数据集

目标任务通常是受监控的,跨越一系列常见的NLP任务:

句子或文档分类(如情感)

句子对分类(如NLI、释义)

字级(例如序列标记、提取性问答)

结构化预测(如解析)

生成(例如对话、总结)

具体示例——词向量

单词嵌入方法(例如word2vec)每个单词学习一个向量

主题:从单词到语境中的单词

主题:从单词到语境中的单词

词向量 句子/doc向量 语境中词向量

主题:LM预训练

许多成功的预培训方法都是基于语言建模的

非正式地,LM学习p(文本)或p(文本/其他文本)

不需要人工注释

许多语言有足够的文本来学习大容量模型

多才多艺,能学习句子和词的表达,具有多种客观功能

主题:由浅入深

1层 24层

主题:预培训与目标任务

预培训和目标任务的选择是耦合

句子/文档表示法对单词级预测无效

词向量可以跨上下文汇集,但通常比其他方法更好。

在语境词向量中,双向语境很重要

一般来说:

类似的预培训和目标任务→最佳结果

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • nlp
    nlp
    +关注

    关注

    1

    文章

    463

    浏览量

    21816
  • 迁移学习
    +关注

    关注

    0

    文章

    72

    浏览量

    5501

原文标题:【干货】NLP中的迁移学习教程来啦!(238页PPT下载)

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    基于稀疏编码的迁移学习及其在行人检测的应用

    一定进展,但大都需要大量的训练数据.针对这一问题,提出了一种基于迁移学习的半监督行人分类方法:首先基于稀疏编码,从任意的未标记样本,学习到一个紧凑、有效的特征表示;然后通过
    发表于 04-24 09:48

    迁移学习训练网络

    keras 之 迁移学习,改变VGG16输出层,用imagenet权重retrain
    发表于 09-09 11:02

    迁移学习

    PDA、Source-Free DA上的应用。六、迁移学习前沿应用迁移学习在语义分割的应用迁移
    发表于 04-21 15:15

    对2017年NLP领域中深度学习技术应用的总结

    本文作者Javier Couto是tryo labs公司的一名研发科学家,专注于NLP技术。这篇文章是他对2017年NLP领域中深度学习技术应用的总结,也许并不全面,但都是他认为有价值、有意义的成果。Couto表示,2017年是
    的头像 发表于 12-28 10:02 5399次阅读
    对2017年<b class='flag-5'>NLP</b>领域中深度<b class='flag-5'>学习</b>技术应用的总结

    NLP的介绍和如何利用机器学习进行NLP以及三种NLP技术的详细介绍

    本文用简洁易懂的语言,讲述了自然语言处理(NLP)的前世今生。从什么是NLP到为什么要学习NLP,再到如何利用机器学习进行
    的头像 发表于 06-10 10:26 7.7w次阅读
    <b class='flag-5'>NLP</b>的介绍和如何利用机器<b class='flag-5'>学习</b>进行<b class='flag-5'>NLP</b>以及三种<b class='flag-5'>NLP</b>技术的详细介绍

    NLP如何帮AI摆脱智障之名 突破还乏善可陈

    延续今年的突破,明年迁移学习NLP 的应用还会上一个台阶;NLG 方面今年已见曙光,期待明年的突破。“合抱之木,生于毫末”,对于 NLP 来说,我们不断在成长,苍天大树即将长成,认
    的头像 发表于 11-06 08:29 2601次阅读

    回顾2018年深度学习NLP十大创新思路

    Sebastian Ruder 是一位 NLP 方向的博士生、研究科学家,目前供职于一家做 NLP 相关服务的爱尔兰公司 AYLIEN,同时,他也是一位活跃的博客作者,发表了多篇机器学习NL
    的头像 发表于 01-08 11:25 3341次阅读

    NLP中的深度学习技术概述

    该项目是对基于深度学习的自然语言处理(NLP)的概述,包括用来解决不同 NLP 任务和应用的深度学习模型(如循环神经网络、卷积神经网络和强化学习
    的头像 发表于 03-01 09:13 4461次阅读
    <b class='flag-5'>NLP</b>中的深度<b class='flag-5'>学习</b>技术概述

    如何学习自然语言处理NLP详细学习方法说明

    这篇文章是一名自然语言处理(nlp)的初学者,在nlp里摸爬滚打了许久的一些心得,推荐了nlp学习路线和资料合集,本站极力推荐。
    的头像 发表于 03-03 11:05 5443次阅读

    迁移学习与模型预训练:何去何从

    把我们当前要处理的NLP任务叫做T(T称为目标任务),迁移学习技术做的事是利用另一个任务S(S称为源任务)来提升任务T的效果,也即把S的信息迁移到T中。至于怎么
    的头像 发表于 07-18 11:29 7488次阅读
    <b class='flag-5'>迁移</b><b class='flag-5'>学习</b>与模型预训练:何去何从

    AI 深度学习 机器学习NLP四种先进技术的不同

    随着人类技术的不断发展,人工智能,深度学习,机器学习NLP都是受欢迎的搜索热词。
    的头像 发表于 05-03 18:09 2483次阅读

    NLP迁移学习面临的问题和解决

    自然语言处理(NLP)最近取得了巨大的进步,每隔几天就会发布最新的结果。排行榜疯狂是指最常见的NLP基准,如GLUE和SUPERGLUE,它们的得分越来越接近人类的水平。这些结果大多是通过超大(数十亿个参数)模型从大规模数据集中迁移
    的头像 发表于 05-04 12:03 2862次阅读
    <b class='flag-5'>NLP</b><b class='flag-5'>迁移</b><b class='flag-5'>学习</b>面临的问题和解决

    NLP 2019 Highlights 给NLP从业者的一个参考

    自然语言处理专家elvis在medium博客上发表了关于NLP在2019年的亮点总结。对于自然语言处理(NLP)领域而言,2019年是令人印象深刻的一年。在这篇博客文章中,我想重点介绍一些
    的头像 发表于 09-25 16:56 1500次阅读

    迁移学习Finetune的四种类型招式

    迁移学习广泛地应用于NLP、CV等各种领域,通过在源域数据上学习知识,再迁移到下游其他目标任务上,提升目标任务上的效果。其中,Pretrai
    的头像 发表于 04-02 17:35 2587次阅读

    NLP中的迁移学习:利用预训练模型进行文本分类

    迁移学习彻底改变了自然语言处理(NLP)领域,允许从业者利用预先训练的模型来完成自己的任务,从而大大减少了训练时间和计算资源。在本文中,我们将讨论迁移
    发表于 06-14 09:30 311次阅读