0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

比Bert体积更小速度更快的 TinyBERT

电子设计 来源:电子设计 作者:电子设计 2020-12-10 20:35 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

TinyBERT 是华为不久前提出的一种蒸馏 BERT 的方法,本文梳理了 TinyBERT 的模型结构,探索了其在不同业务上的表现,证明了 TinyBERT 对复杂的语义匹配任务来说是一种行之有效的压缩手段。
作者:chenchenliu&winsechang,腾讯 PCG 内容挖掘工程师
来源:腾讯技术工程微信号

一、简介

在 NLP 领域,BERT 的强大毫无疑问,但由于模型过于庞大,单个样本计算一次的开销动辄上百毫秒,很难应用到实际生产中。TinyBERT 是华为、华科联合提出的一种为基于 transformer 的模型专门设计的知识蒸馏方法,模型大小不到 BERT 的 1/7,但速度提高了 9 倍,而且性能没有出现明显下降。目前,该论文已经提交机器学习顶会 ICLR 2020。本文复现了 TinyBERT 的结果,证明了 Tiny BERT 在速度提高的同时,对复杂的语义匹配任务,性能没有显著下降。

目前主流的几种蒸馏方法大概分成利用 transformer 结构蒸馏、利用其它简单的结构比如 BiLSTM 等蒸馏。由于 BiLSTM 等结构简单,且一般是用 BERT 最后一层的输出结果进行蒸馏,不能学到 transformer 中间层的信息,对于复杂的语义匹配任务,效果有点不尽人意。

基于 transformer 结构的蒸馏方法目前比较出名的有微软的 BERT-PKD (Patient Knowledge Distillation for BERT),huggingface 的 DistilBERT,以及本篇文章讲的 TinyBERT。他们的基本思路都是减少 transformer encoding 的层数和 hidden size 大小,实现细节上各有不同,主要差异体现在 loss 的设计上。

二、模型实现细节

整个 TinyBERT 的 loss 设计分为三部分:

1. Embedding-layer Distillation


其中:

分别代表 student 网络的 embedding 和 teacher 网络的 embedding. 其中 l 代表 sequence length, d0 代表 student embedding 维度, d 代表 teacher embedding 维度。由于 student 网络的 embedding 层通常较 teacher 会变小以获得更小的模型和加速,所以 We 是一个 d 0×d 维的可训练的线性变换矩阵,把 student 的 embedding 投影到 teacher embedding 所在的空间。最后再算 MSE,得到 embedding loss.

2. Transformer-layer Distillation

TinyBERT 的 transformer 蒸馏采用隔 k 层蒸馏的方式。举个例子,teacher BERT 一共有 12 层,若是设置 student BERT 为 4 层,就是每隔 3 层计算一个 transformer loss. 映射函数为 g(m) = 3 * m, m 为 student encoder 层数。具体对应为 student 第 1 层 transformer 对应 teacher 第 3 层,第 2 层对应第 6 层,第 3 层对应第 9 层,第 4 层对应第 12 层。每一层的 transformer loss 又分为两部分组成,attention based distillation 和 hidden states based distillation.

2.1 Attention based loss


其中,

h 代表 attention 的头数,l 代表输入长度,

代表 student 网络第 i 个 attention 头的 attention score 矩阵,

代表 teacher 网络第 i 个 attention 头的 attention score 矩阵。这个 loss 是受到斯坦福和 Facebook 联合发表的论文,What Does BERT Look At? An Analysis of BERT’s Attention 的启发。这篇论文研究了 attention 权重到底学到了什么,实验发现与语义还有语法相关的词比如第一个动词宾语,第一个介词宾语,以及[CLS], [SEP], 逗号等 token,有很高的注意力权重。为了确保这部分信息能被 student 网络学到,TinyBERT 在 loss 设计中加上了 student 和 teacher 的 attention matrix 的 MSE。这样语言知识可以很好的从 teacher BERT 转移到 student BERT.

2.2 hidden states based distillation

其中,

分别是 student transformer 和 teacher transformer 的隐层输出。和 embedding loss 同理,

投影到 Ht 所在的空间。

3. Prediction-Layer Distillation


其中 t 是 temperature value,暂时设为 1.除了模仿中间层的行为外,这一层用来模拟 teacher 网络在 predict 层的表现。具体来说,这一层计算了 teacher 输出的概率分布和 student 输出的概率分布的 softmax 交叉熵。这一层的实现和具体任务相关,我们的两个实验分别采取了 BERT 原生的 masked language model loss + next sentence loss 和单任务的 classification softmax cross-entropy.

另外,值得一提的是 prediction loss 有很多变化。在 TinyBERT 中,这个 loss 是 teacher BERT 预测的概率和 student BERT 预测概率的 softmax 交叉熵,在 BERT-PKD 模型中,这个 loss 是 teacher BERT 和 student BERT 的交叉熵和 student BERT 和 hard target( one-hot)的交叉熵的加权平均。我们在业务中有试过直接用 hard target loss,效果比使用 teacher student softmax 交叉熵下降 5-6 个点。因为 softmax 比 one-hot 编码了更多概率分布的信息。并且实验中,softmax cross-entropy loss 容易发生不收敛的情况,把 softmax 交叉熵改成 MSE, 收敛效果变好,但泛化效果变差。这是因为使用 softmax cross-entropy 需要学到整个概率分布,更难收敛,因为拟合了 teacher BERT 的概率分布,有更强的泛化性。MSE 对极值敏感,收敛的更快,但泛化效果不如前者。

所以总结一下,loss 的计算公式为:

其中,

三、实验

TinyBERT 论文中提出了两阶段学习框架,比较新颖。类似于原生的 BERT 先 pre-train, 根据具体任务再 fine-tine, TinyBERT 先在 general domain 数据集上用未经微调的 BERT 充当教师蒸馏出一个 base 模型,在此基础上,具体任务通过数据增强,利用微调后的 BERT 再进行重新执行蒸馏。

这种两阶段的方法给 TinyBERT 提供了像 BERT 一样的泛化能力。不过为了快速得到实验结果,并且论文中的控制变量实验显示 general 的蒸馏对各项下游任务的影响较小,我们此次选择直接用 fine-tune 过的 teacher BERT,蒸馏得到 student BERT.

所以我们蒸馏 TinyBERT 的流程是:

制作任务相关数据集;

fine-tune teacher BERT;

固定 teacher BERT 参数,蒸馏得到 TinyBERT.

关于实验结果,先上 TinyBERT 论文中的结论:

可以看到 TinyBERT 表现优异。在 GLUE 上,相较于完整的 BERT,性能下降 3 个点,但是推理性能却得到了巨大提升,快了 9 倍多。

我们在自己的业务上,也用 TinyBERT 得到了相似的结果。

3.1 文章连贯性特征任务

做这个特征的目的是为了过滤东拼西凑或者机器生成前后没有逻辑的文章。由于语义的复杂性还有语义的转移,这个任务和语义相似度任务略有不同,文章的上下句之间语义会有不同。在这个背景下,实验过 DSSM, Match-Pyramid 等模型,表现效果较差。

由于 BERT 能学到丰富的语义,这个任务目前采用 BERT 的 next sentence 任务较为合适。但是一旦文章很长,原生 BERT 需要算 1 秒甚至更久,这样的速度是不能接受的。

TinyBERT 在不同实验参数下的表现如下:

可以看到 4 层 encoder 的 TinyBERT 在 next sentence 任务下准确率较 BERT base 准确率下降了不到 3 个点,在 mlm 任务上下降较多。在 CPU 上,TinyBERT 相较于 base 速度获得了将近 8 倍的提升。

3.2 问答 FAQ 任务

业务场景:为用户的 query 匹配最接近的 question,将其 answer 返回,是一个 Query-question 语义匹配任务。

下面是蒸馏到两层 encoder 的 TinyBERT 结果:

可以看到 ACC 损失 3 个点,AUC 损失 4 个点,取得了不错的效果。

四、总结

我们证明了 TinyBERT 作为一种蒸馏方法,能有效的提取 BERT transformer 结构中丰富的语意信息,在不牺牲性能的情况下,速度能获得 8 到 9 倍的提升。下一步可能会尝试蒸馏一个 general 的 TinyBERT base。

更多腾讯AI相关技术干货,请关注专栏腾讯技术工程

审核编辑 黄昊宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人工智能
    +关注

    关注

    1820

    文章

    50325

    浏览量

    266967
  • nlp
    nlp
    +关注

    关注

    1

    文章

    491

    浏览量

    23345
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    台积电公布最新路线图:A12、A13、N2U工艺技术发布

    台积电周三展示了最新一代的芯片制造关键技术,并预期能在不使用阿斯麦昂贵新设备的情况下,制造出体积更小速度更快、效能更高的芯片。
    的头像 发表于 04-23 19:23 29次阅读

    石英加速度计让空间受限的平台拥有“高精度感知”

    积累误差明显。而ER-QA-03C小体积石英加速度计的出现,彻底打破了这一僵局——它用更小的身材、更稳的性能,重新定义了高精度加速度测量的标准。
    的头像 发表于 04-14 15:01 160次阅读
    石英加<b class='flag-5'>速度</b>计让空间受限的平台拥有“高精度感知”

    电子齿轮越大速度越快吗

    在工业自动化领域,伺服系统的电子齿轮是一个关键参数,它直接影响电机的运动性能。关于"电子齿轮越大速度越快"这一观点,需要从工作原理、系统配置和实际应用三个维度进行深入分析,才能得出科学结论。
    的头像 发表于 03-16 17:28 427次阅读

    体积,大作为——石英加速度计为航空航天导航精准掌舵

    在现代航空航天领域,精确的姿态控制和导航能力是衡量系统性能的关键指标。随着飞行器、作战平台和无人系统对体积、重量和精度的要求日益严苛,传统测量手段已难以胜任。ER-QA-03C小体积石英加速度计应运而生,以其卓越的性能和紧凑设计
    的头像 发表于 03-03 15:56 196次阅读
    小<b class='flag-5'>体积</b>,大作为——石英加<b class='flag-5'>速度</b>计为航空航天导航精准掌舵

    交流电源输出直流,响应速度直流电源更快

    本文导读在高压直流供电测试中,很多用户存在疑问:同为开关型电源,为什么交直流电源输出直流时的动态响应时间,反而比纯直流电源更快?本文将结合具体数据与内部原理揭晓。特种装备、AI服务器电源等行业对高
    的头像 发表于 12-17 11:39 2412次阅读
    交流电源输出直流,响应<b class='flag-5'>速度</b><b class='flag-5'>比</b>直流电源<b class='flag-5'>更快</b>?

    变压器变组别测试仪参数分别是什么

    泛的环境温度 相对湿度 :≤85%,无冷凝 体积 :325×280×190mm³ 重量 :6.9kg, UHV-330 更轻便 特色功能 Z 型变压器专用 :特别适合测试 Z 型绕组和空载电流较高的变压器
    发表于 11-17 15:46

    汉得利产能扩展助力智能制造升级

    电子设备持续向“运行速度更快、容量更大、能耗更低、体积更小、成本更低”的方向演进。笔记本轻薄化趋势对内部散热风扇提出了近乎苛刻的要求。
    的头像 发表于 10-27 11:01 796次阅读

    体积更小且支持大功率!ROHM开始量产TOLL封装的SiC MOSFET

    (TO-263-7L)相比,其散热性提升约39%,虽然体型小且薄,却能支持大功率。该产品非常适用于功率密度日益提高的服务器电源、ESS(储能系统)以及要求扁平化设计的薄型电源等工业设备。 与以往封装产品相比,新产品的体积更小更薄,器件面积削减了约26%,厚度减半,仅为2.
    的头像 发表于 10-23 11:25 551次阅读
    <b class='flag-5'>体积</b><b class='flag-5'>更小</b>且支持大功率!ROHM开始量产TOLL封装的SiC MOSFET

    体积、精度、成本难兼顾?这款石英加速度计如何实现三重突破?

    在高端工业与航空航天领域,对加速度测量的要求日益严苛——不仅需要极高的精度与稳定性,还必须能在振动、冲击和极端温度等复杂环境中保持微小体积与长期可靠。ER-QA-03C3小型石英加速度计应运而生,直面这些挑战。不仅在航空、航天器
    的头像 发表于 08-26 15:03 723次阅读
    <b class='flag-5'>体积</b>、精度、成本难兼顾?这款石英加<b class='flag-5'>速度</b>计如何实现三重突破?

    氮化镓快充芯片U8725AHE的工作原理

    氮化镓充电器的高功率密度,能在很小的体积里给出更高的功率,所以氮化镓充电器个头更小,重量也更轻。且能把电能转换得更有效,能量损失也少,充电速度就能变得更快。推荐一款快速启动功能和超低的
    的头像 发表于 07-18 16:08 3332次阅读
    氮化镓快充芯片U8725AHE的工作原理

    WiFi和以太网哪个更快

    以太网通常WiFi更快、更稳定,尤其在理想条件下差距显著;而WiFi胜在灵活便捷,但实际速度受环境干扰较大。 以下是具体分析: 一、理论速度对比 以太网 千兆以太网(1Gbps) :
    的头像 发表于 07-01 09:54 2719次阅读

    【教程】轻松上手!E22系列模组简单通信教程

    /900MHz频段,LoRa扩频技术,TTL电平输出,兼容3.3V的IO口电压。采用全新一代LoRa扩频技术,速度更快,功耗更低,体积更小;支持空中唤醒、无线配置
    的头像 发表于 06-19 19:33 1460次阅读
    【教程】轻松上手!E22系列模组简单通信教程

    RVCT编译器是否GNU的编译器的代码执行速度更快

    ,是rvct3.1还是rvct4.0?如何把rvct编译器集成到ide中? 2、RVCT编译器是否GNU的编译器的代码执行速度更快
    发表于 05-08 07:49

    SlaveFifo 2bit sync模式下最大速度只有320Mbyte/s左右,还能更快一点吗?

    你好!我测试了SlaveFifo 2bit sync32bitBus 模式,采用AN65974官方代码,硬件芯片是Artix 7 , PCLK设置为100MHz的时钟,目前只开通单个读线程 最大速度
    发表于 05-06 14:36