0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

迁移学习Finetune的四种类型招式

深度学习自然语言处理 来源:圆圆的算法笔记 作者:Fareise 2022-04-02 17:35 次阅读

来自:圆圆的算法笔记;作者:Fareise

迁移学习广泛地应用于NLP、CV等各种领域,通过在源域数据上学习知识,再迁移到下游其他目标任务上,提升目标任务上的效果。其中,Pretrain-Finetune(预训练+精调)模式是最为常见的一种迁移学习方法。例如NLP中的预训练Bert模型,通过在下游任务上Finetune即可取得比直接使用下游数据任务从零训练的效果要好得多。

虽然在预训练模型上Finetune能取得非常好的效果,我们经常使用Finetune方法,但是你是否有想过这种Finetune方法有没有什么优化方法?如何Finetune对最终效果好坏有非常大的影响。例如,在Finetune时我们会考虑要迁移预训练网络的哪些层,哪些层需要冻结,哪些层需要随着模型一起Finetune。实际应用时,我们往往需要尝试不同的迁移方法和Finetune策略来达到最优效果。目前学术界也有很多创新性较强的花式Finetune方法研究。本文介绍了来自2018年以来ICML、CVPR等顶会的7篇论文,总结了Finetune的四种类型招式,通过更科学的Finetune方式,提升迁移学习效果。

招式1:使用Pretrain模型做约束

在Finetune阶段,如果我们可用于Finetune的目标任务数据量较少时,很有可能出现过拟合现象,严重影响模型效果;或者在Finetune过程中出现知识遗忘问题(catastrophic memory),把Pretrain阶段学到的有用知识遗忘,丢了西瓜捡了芝麻。为了解决这种问题,学术界提出利用Pretrain模型作为约束,指导Finetune的过程,让Finetune得到的模型更加鲁棒。具体包括:直接使用Pretrain模型的参数作为约束、使用Pretrain模型的中间层表示作为约束、使用Pretrain模型对不同特征注意力强度作为约束。

为了防止模型在Finetune阶段过拟合目标任务数据,或忘记了Pretrain阶段学到的有意义知识,Explicit inductive bias for transfer learning with convolutional networks(ICML 2018)这篇文章介绍了一种使用Pretrain模型参数约束Finetune过程的方法:通过添加Pretrain模型参数和Finetune模型参数之间的某种正则化损失,让Finetune后的模型参数和最开始的Pretrain模型参数更加相似。文章中尝试了多种正则化方法,通过最终的实验发现,一个简单的L2正则效果最好,即对于Pretrain模型和Finetune模型的对应层的参数计算L2距离,作为Finetune过程中损失函数的一部分,公式如下(w为Finetune参数,w0位Pretrain参数):

迁移学习Finetune的四种类型招式

通过L2正则化的方法拉近Pretrain模型和Target模型参数也存在一定问题,如何设定正则化的强度直接决定了迁移效果,正则化太弱仍然会导致过拟合和信息遗忘,迁移强度太强会导致Finetune的模型在Target任务上不是最优解。百度的文章DELTA: DEEP LEARNING TRANSFER USING FEATURE MAP WITH ATTENTION FOR CONVOLUTIONAL NET- WORKS(ICLR 2019)提出,通过约束网络的behavior,即feature map,而非模型参数,来实现约束目标。具体的,约束项可以表示为如下形式:

迁移学习Finetune的四种类型招式

其中,Wj表示第j个卷积层的约束强度,FM表示第i个样本经过参数w提取的feaure map。Wj的计算方法为,使用Pretrain的模型Freeze住底层Feature Extractor参数,Finetune后面Discriminator参数,通过衡量去掉每个channel后效果的损失,的到这个channel的迁移强度。如果去掉Pretrain模型某个channel后效果下降特别明显,说明Pretrain得到的这个channel的信息对Target任务是很有效的,这个时候要增大这种channel参数的迁移强度。

迁移学习Finetune的四种类型招式

采用Pretrain模型对Finetune模型进行约束需要引入额外的正则化Loss,可以被称为Transfer Loss。由于Transfer Loss和Target Task Loss的优化目标不同,如何平衡两个Loss的关系决定了迁移效果。为了统一这两种Loss,Robust Knowledge Transfer via Hybrid Forward on the Teacher-Student Model(AAAI 2021)提出了一种混合前向网络。当一个样本输入时,会通过三种不同的路径得到三种Loss,Loss1和Loss2通过交替进入Student网络(Target Task模型)某层和Teachder网络(Pretrain模型)某层,最终再通过Target Task Head得到;Loss3只进入Student网络通过Target Task Head得到。Loss1和Loss2代表了Student网络和Teachder网络Transfer Loss,Loss3代表了Target Task的优化Loss。与之前方法相比,该方法的三个Loss都是以优化Target Task为目标的,因此可以通过直接对比来判断目前的Transfer强度是否太强。文中设计了一种简单的平衡Transfer Loss和Target Loss的方法,让两个任务的Loss同等重要,随着训练过程动态计算Loss1和Loss2的权重。

迁移学习Finetune的四种类型招式

迁移学习Finetune的四种类型招式

招式2:选择性地对Pretrain模型迁移

Pretrain模型中的参数不一定都是对下游任务有帮助的,因此一些研究提出,对Pretrain的模型进行有选择性的迁移,重点迁移那些对下游任务帮助大的信息。Learning What and Where to Transfer(ICML 2019)中提出一种基于meta-learning的迁移学习方法。这篇文章的核心思路建立在FITNETS: HINTS FOR THIN DEEP NETS(ICLR 2015)一文提出的迁移方法之上,让Target模型通过一个回归任务拟合Pretrain模型中间层的表示,该优化目标可以表示为:

迁移学习Finetune的四种类型招式

在FitNet中WGuided和WHint分别表示Target模型的Pretrain模型某一对应层的参数。Learning What and Where to Transfer(ICML 2019)对该方法进行了扩展。在What to transfer阶段,对每一个channel的迁移做一个权重学习,每个channel的权重是通过一个单独的网络输入图片在Source模型的输出计算得到的(T代表Target模型,S代表Source模型,与FitNet中的Guided和Hint相对应):

迁移学习Finetune的四种类型招式

在Where to transfer阶段,主要决定Source模型到Target模型的迁移层pair,即Source模型的第i层参数要迁移到Target模型的哪一层。类似What to transfer,通过一个单独的网络学习(i,j)这组Source模型到Target模型pair对的迁移强度:

迁移学习Finetune的四种类型招式

最终的Loss由上面两个阶段的Loss,以及任务本身的Loss共同组成。在训练阶段,文章采用了Meta-learning的方法,内循环阶段更新总体Loss,外循环阶段更新三个Loss的总和。Meta-learning原理可以参考历史文章Meta-learning核心思想及近年顶会3个优化方向。

迁移学习Finetune的四种类型招式

招式3:在Finetune阶段调整网络结构

之前介绍的迁移学习方法,大多数都是通过Finetune对Pretrain模型的参数进行调整。然而,下游的Target任务可能需要和Source任务采用不同的模型结构来更好的进行学习。因此,TransTailor: Pruning the Pre-trained Model for Improved Transfer Learning(AAAI 2021)提出了一种在Finetune阶段动态剪枝的方法,实现Finetune阶段不仅能够调整模型参数,还能调整模型网络结构。该方法分为Target-aware Pruning和Importance-aware Finetuning两个阶段。在Target-aware Pruning阶段,对于网络中每一层的每一个filter,都对应一个可学习的权重,把Pretrain模型的参数Freeze住,使用Target任务的数据和优化目标进行训练,得到每组参数最终对应的权重,训练过程可以表示为:

迁移学习Finetune的四种类型招式

这个重要性权重会使用泰勒变换,融合全局各层的打分结果得到全局的打分,最后将打分较低的网络参数剪枝掉。在Importance-aware Finetuning,会结合第一阶段得到的参数打分进行Finetune,具体的,通过将每组参数的打分结果乘到参数上,的到参数的转换结果进行前向传播。最终两个过程交替进行,直到得到最终模型。

迁移学习Finetune的四种类型招式

招式4:学习每组参数Transfer的方式

在利用Pretrain模型进行迁移学习时,我们往往需要决定哪些网络的参数要Freeze,哪些网络参数跟随Target任务Finetune。例如,在CV领域,一些研究表明底层网络能够提取出更一般的图像规律,而接近分类层的参数对于不同Task差异很大,因此为了不将Pretrain阶段学到的知识破坏,将底层参数Freeze,只Finetune上层参数,会最大限度保留Pretrain阶段在大量数据学到的知识,提升迁移学习效果。然而,不同任务需要Freeze的参数存在差异,人工调试不同的Transfer方式(哪些层Freeze、哪些层Finetune)效率很低。同时,一般的Finetune假设每个Target样本都应该使用相同的Finetune方式,这也是不合理的。例如,和source domain更相似的样本,从source domain迁移更多知识更有帮助。因此,学术界出现一些相关工作,自动化学习每层以及每个样本的迁移策略。

在SpotTune: Transfer Learning through Adaptive Fine-tuning(CVPR 2019)这篇文章中,提出了对于每个样本学习一个个性化的迁移方式。对于每个样本,经过网络的每层可以选择是使用Pretrain模型的原始参数,还是使用Pretrain模型初始化后Finetune的参数。模型通过一个Policy Network,输入每个样本的特征(一般使用Pretrain模型对样本的表征向量),输出模型每组参数的迁移方式(使用Pretrain模型原始参数,或使用Pretrain模型初始化后Finetune的参数)。这个过程中需要对两种迁移方式进行采样,而采样运算不可导。为了让该运算可导,本文使用了Gumbel-Max Trick生成采样结果。SpotTune的模型结构如下图所示:

迁移学习Finetune的四种类型招式

SpotTune实现了每个样本个性化的Finetune策略学习,但是只能做到layer维度。AdaFilter: Adaptive Filter Fine-tuning for Deep Transfer Learning(AAAI 2020)提出了能够在filter维度实现每个样本的Finetune策略学习。与SpotTune类似,Finetune策略仍然为使用Pretrain模型的原始参数,或使用Pretrain模型初始化后Finetune的参数两种。与SpotTune不同的是,AdaFilter使用RNN学习每层各个channel的Finetune策略,每层的Finetune策略选择依赖于上一层输出的表示(SpotTune则是根据样本同时产出所有层的Finetune策略)。

迁移学习Finetune的四种类型招式

总结

本文介绍了7篇顶会论文中对Finetune阶段进行的改进,包括Finetune过程使用Pretrain模型做约束、选择性地对Pretrain模型进行迁移、在Finetune阶段调整网络结构以及学习每组参数Transfer的方式4种类型。Pretrain-Finetune的核心问题在于,如何考虑到Target Task的样本特性,将Pretrain的知识合理迁移到Target Task的模型上。其中每个样本个性化地进行Finetune策略学习,可能是后续可以继续深入研究的方向。

原文标题:花式Finetune方法大汇总

文章出处:【微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 网络
    +关注

    关注

    14

    文章

    7249

    浏览量

    87434
  • 模型
    +关注

    关注

    1

    文章

    2704

    浏览量

    47674
  • 迁移学习
    +关注

    关注

    0

    文章

    72

    浏览量

    5501

原文标题:花式Finetune方法大汇总

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    [7.1]--常见函数的四种类型有哪些

    机器学习深度学习
    jf_90840116
    发布于 :2023年02月21日 00:21:31

    FPGA 设计的四种常用思想与技巧

    FPGA 设计的四种常用思想与技巧FPGA设计的四种常用思想与技巧 讨论的四种常用FPGA/CPLD设计思想与技巧:乒乓操作、串并转换、流水线操作、数据接口同步化,都是FPGA/CPLD 逻辑设计
    发表于 08-11 10:30

    FPGA设计的四种常用思想与技巧

    FPGA设计的四种常用思想与技巧
    发表于 08-20 17:16

    PADS封装中的四种

    PADS中有四种库(暂且论是四种),元器件封装库(Decals),元件类型(Part Type),和逻辑封装库(CAE),图形库(Lines)。简明点说他们的关系,CAE是用在画原理图时候用
    发表于 03-06 10:35

    无线充电技术的四种类型

    =oxh_wx3、【周启全老师】开关电源全集http://t.elecfans.com/topic/130.html?elecfans_trackid=oxh_wx 无线充电技术可以分为四种类型,第一类是通过
    发表于 07-09 13:40

    四种常用的FPGA设计思想与技巧

    四种常用的FPGA设计思想与技巧
    发表于 11-05 15:03

    四种类型温度传感器的优点与缺点

    选择温度传感产品也许看似小事一桩,但由于可用的产品多种多样,因此这项任务可能令人颇感畏惧。在这篇博客文章中,笔者将介绍四种类型的温度传感器(电阻式温度检测器 (RTD)、热电偶、热敏电阻器以及具有
    发表于 09-05 14:52

    技术分享——探讨差分放大器的四种接法

    、分析繁琐,特别是其对差模输入和共模输入信号有不同的分析方法,难以理解,因而一直是模拟电子技术中的难点。差分放大电路:按输入输出方式分:有双端输入双端输出、双端输入单端输出、单端输入双端输出和单端输入单端输出四种类型。按共模负反馈的形式分:有典型电路和射极带恒流源的电路两
    发表于 03-04 08:00

    四种波形发生器

    四种波形发生器
    发表于 03-11 08:14

    USB的四种传输类型

    `USB的四种传输类型1.控制传输:控制传输是一可靠的双向传输,一次控制传输可分为三个阶段。第一阶段为从HOST到Device的SETUP事务传输,这个阶段指定了此次控制传输的请求类型
    发表于 10-09 09:36

    IO口的四种使用方法

    IO口的四种使用方法高阻态的典型应用
    发表于 01-12 07:16

    C++中的四种类型转换分别是哪些?C++中析构函数的作用是什么

    C++中的四种类型转换分别是哪些?C++中析构函数的作用是什么?在C语言中关键字static主要有何作用?
    发表于 12-24 06:57

    为什么四种DDR验证BIST测试类型无法执行并且颜色编码指示?

    你好任何人都可以解释为什么四种 DDR 验证 BIST 测试类型无法执行并且颜色编码指示“…………测试脚本中的错误”?我能够成功执行 DDR 验证阶段和其他四种 DDR 验证测试类型
    发表于 04-06 08:54

    WebApi之接口返回值的四种类型

    Webapi的接口返回值主要有四种类型 void无返回值 IHttpActionResult HttpResponseMessage 自定义类型 void无返回值 大家都知道void声明的是一个无返回值的方法,声明一个api控制器方法。
    发表于 11-27 14:52 1.2w次阅读

    NoSQL数据库的四种类型

    在本文中,我们将简要介绍NoSQL数据库的四种类型
    的头像 发表于 04-25 17:21 3364次阅读