0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Google研究科学家:告别卷积

新机器视觉 来源:AI科技大本营 作者:AI科技大本营 2020-10-23 09:45 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

编译 |凯隐 出品 | AI科技大本营(ID:rgznai100)

Transformer是由谷歌于2017年提出的具有里程碑意义的模型,同时也是语言AI革命的关键技术。在此之前的SOTA模型都是以循环神经网络为基础(RNN, LSTM等)。从本质上来讲,RNN是以串行的方式来处理数据,对应到NLP任务上,即按照句中词语的先后顺序,每一个时间步处理一个词语。


相较于这种串行模式,Transformer的巨大创新便在于并行化的语言处理:文本中的所有词语都可以在同一时间进行分析,而不是按照序列先后顺序。为了支持这种并行化的处理方式,Transformer依赖于注意力机制。注意力机制可以让模型考虑任意两个词语之间的相互关系,且不受它们在文本序列中位置的影响。通过分析词语之间的两两相互关系,来决定应该对哪些词或短语赋予更多的注意力。

相较于RNN必须按时间顺序进行计算,Transformer并行处理机制的显著好处便在于更高的计算效率,可以通过并行计算来大大加快训练速度,从而能在更大的数据集上进行训练。例如GPT-3(Transformer的第三代)的训练数据集大约包含5000亿个词语,并且模型参数量达到1750亿,远远超越了现有的任何基于RNN的模型。

现有的各种基于Transformer的模型基本只是与NLP任务有关,这得益于GPT-3等衍生模型的成功。然而,最近ICLR 2021的一篇投稿文章开创性地将Transformer模型跨领域地引用到了计算机视觉任务中,并取得了不错地成果。这也被许多AI学者认为是开创了CV领域的新时代,甚至可能完全取代传统的卷积操作。 其中,Google的Deepmind 研究科学家Oriol Vinyals的看法很直接:告别卷积。 以下为该论文的详细工作:

基本内容 Transformer的核心原理是注意力机制,注意力机制在具体实现时主要以矩阵乘法计算为基础,这意味着可以通过并行化来加快计算速度,相较于只能按时间顺序进行串行计算的RNN模型而言,大大提高了训练速度,从而能够在更大的数据集上进行训练。 此外,Transformer模型还具有良好的可扩展性和伸缩性,在面对具体的任务时,常用的做法是先在大型数据集上进行训练,然后在指定任务数据集上进行微调。并且随着模型大小和数据集的增长,模型本身的性能也会跟着提升,目前为止还没有一个明显的性能天花板。

Transformer的这两个特性不仅让其在NLP领域大获成功,也提供了将其迁移到其他任务上的潜力。此前已经有文章尝试将注意力机制应用到图像识别任务上,但他们要么是没有脱离CNN的框架,要么是对注意力机制进行了修改,导致计算效率低,不能很好地实现并行计算加速。因此在大规模图片分类任务中,以ResNet为基本结构的模型依然是主流。

这篇文章首先尝试在几乎不做改动的情况下将Transformer模型应用到图像分类任务中,在 ImageNet 得到的结果相较于 ResNet 较差,这是因为Transformer模型缺乏归纳偏置能力,例如并不具备CNN那样的平移不变性和局部性,因此在数据不足时不能很好的泛化到该任务上。然而,当训练数据量得到提升时,归纳偏置的问题便能得到缓解,即如果在足够大的数据集上进行与训练,便能很好地迁移到小规模数据集上。 在此基础上,作者提出了Vision Transformer模型。下面将介绍模型原理。

模型原理 该研究提出了一种称为Vision Transformer(ViT)的模型,在设计上是尽可能遵循原版Transformer结构,这也是为了尽可能保持原版的性能。 虽然可以并行处理,但Transformer依然是以一维序列作为输入,然而图片数据都是二维的,因此首先要解决的问题是如何将图片以合适的方式输入到模型中。本文采用的是切块 + embedding的方法,如下图:

首先将原始图片划分为多个子图(patch),每个子图相当于一个word,这个过程也可以表示为:

其中x是输入图片,xp则是处理后的子图序列,P2则是子图的分辨率,N则是切分后的子图数量(即序列长度),显然有。由于Transformer只接受1D序列作为输入,因此还需要对每个patch进行embedding,通过一个线性变换层将二维的patch嵌入表示为长度为D的一维向量,得到的输出被称为patch嵌入。   类似于BERT模型的[class] token机制,对每一个patch嵌入,都会额外预测一个可学习的嵌入表示,然后将这个嵌入表示在encoder中的最终输出()作为对应patch的表示。在预训练和微调阶段,分类头都依赖于。   此外还加入了位置嵌入信息(图中的0,1,2,3…),因为序列化的patch丢失了他们在图片中的位置信息。作者尝试了各种不同的2D嵌入方法,但是相较于一般的1D嵌入并没有任何显著的性能提升,因此最终使用联合嵌入作为输入。   模型结构与标准的Transformer相同(如上图右侧),即由多个交互层多头注意力(MSA)和多层感知器(MLP)构成。在每个模块前使用LayerNorm,在模块后使用残差连接。使用GELU作为MLP的激活函数。整个模型的更新公式如下:

其中(1)代表了嵌入层的更新,公式(2)和(3)则代表了MSA和MLP的前向传播。 此外本文还提出了一种直接采用ResNet中间层输出作为图片嵌入表示的方法,可以作为上述基于patch分割方法的替代。

模型训练和分辨率调整 和之前常用的做法一样,在针对具体任务时,先在大规模数据集上训练,然后根据具体的任务需求进行微调。这里主要是更换最后的分类头,按照分类数来设置分类头的参数形状。此外作者还发现在更高的分辨率进行微调往往能取得更好的效果,因为在保持patch分辨率不变的情况下,原始图像分辨率越高,得到的patch数越大,因此得到的有效序列也就越长。

对比实验4.1 实验设置 首先作者设计了多个不同大小的ViT变体,分别对应不同的复杂度。

数据集主要使用ILSVRC-2012,ImageNet-21K,以及JFT数据集。 4.2 与SOTA模型的性能对比 首先是和ResNet以及efficientNet的对比,这两个模型都是比较有代表的基于CNN的模型。

其中ViT模型都是在JFT-300M数据集上进行了预训练。从上表可以看出,复杂度较低,规模较小的ViT-L在各个数据集上都超过了ResNet,并且其所需的算力也要少十多倍。ViT-H规模更大,但性能也有进一步提升,在ImageNet, CIFAR,Oxford-IIIT, VTAB等数据集上超过了SOTA,且有大幅提升。 作者进一步将VTAB的任务分为多组,并对比了ViT和其他几个SOTA模型的性能:

可以看到除了在Natrual任务中ViT略低于BiT外,在其他三个任务中都达到了SOTA,这再次证明了ViT的性能强大。 4.3 不同预训练数据集对性能的影响 预训练对于该模型而言是一个非常重要的环节,预训练所用数据集的规模将影响模型的归纳偏置能力,因此作者进一步探究了不同规模的预训练数据集对性能的影响:

上图展示了不同规模的预训练数据集(横轴)对不同大小的模型的性能影响,注意微调时的数据集固定为ImageNet。可以看到对大部分模型而言,预训练数据集规模越大,最终的性能越好。并且随着数据集的增大,较大的ViT模型(ViT-H/14)要由于较小的ViT模型(ViT-L)。 此外,作者还在不同大小的JFT数据集的子集上进行了模型训练:

可以发现ViT-L对应的两个模型在数据集规模增大时有非常明显的提升,而ResNet则几乎没有变化。这里可以得出两个结论,一是ViT模型本身的性能上限要优于ResNet,这可以理解为注意力机制的上限高于CNN。二是在数据集非常大的情况下,ViT模型性能大幅超越ResNet, 这说明在数据足够的情况下,注意力机制完全可以代替CNN,而在数据集较小的情况下(10M),卷积则更为有效。 除了以上实验,作者还探究了ViT模型的迁移性能,实验结果表明不论是性能还是算力需求,ViT模型在进行迁移时都优于ResNet。

可视化分析 可视化分析可以帮助我们了解ViT的特征学习过程。显然,ViT模型的注意力一定是放在了与分类有关的区域:

总结 本文提出的基于patch分割的图像解释策略,在结合Transformer的情况下取得了非常好的效果,这为CV领域的其他研究提供了一个很好的思路。此外,接下来应该会出现许多基于这篇工作的研究,进一步将这一划时代的模型应用到更多的任务上,例如目标检测、实例分割、行为识别等等。此外,也会出现针对patch分割策略的改进,来进一步提高模型性能。

原文标题:告别 CNN?一张图等于 16x16 个字,计算机视觉也用上 Transformer 了

文章出处:【微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。

责任编辑:haq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 谷歌
    +关注

    关注

    27

    文章

    6245

    浏览量

    110269
  • AI
    AI
    +关注

    关注

    89

    文章

    38153

    浏览量

    296793
  • CV
    CV
    +关注

    关注

    0

    文章

    54

    浏览量

    17474
  • 解释器
    +关注

    关注

    0

    文章

    103

    浏览量

    6935

原文标题:告别 CNN?一张图等于 16x16 个字,计算机视觉也用上 Transformer 了

文章出处:【微信号:vision263com,微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    中兴通讯崔丽受邀出席2025腾冲科学家论坛

    近日,“2025腾冲科学家论坛”在云南启幕。本届论坛以“科学·AI改变世界”为主题,汇聚包括诺贝尔奖、图灵奖、菲尔兹奖得主在内的国际顶尖科学家,以及百余位两院院士、高校校长、科技精英与产业领袖,共话
    的头像 发表于 12-09 11:36 206次阅读

    昊衡科技:第四届飞行器健康管理技术国际高端论坛暨青年科学家论坛圆满落幕

    2025年11月21日,第四届飞行器健康管理技术国际高端论坛暨青年科学家论坛在厦门国际会展酒店(会展二路199号)圆满落下帷幕。深度交流本届论坛上,国产光学测量与传感仪器制造商——武汉昊衡科技,展示
    的头像 发表于 11-21 17:59 192次阅读
    昊衡科技:第四届飞行器健康管理技术国际高端论坛暨青年<b class='flag-5'>科学家</b>论坛圆满落幕

    技术感知世界!昊衡科技在第四届飞行器健康管理技术国际高端论坛暨青年科学家论坛等您!

    今日是第四届飞行器健康管理技术国际高端论坛暨青年科学家论坛在厦门国际会展酒店(会展二路199号)的会议日,现场学术氛围持续高涨。武汉昊衡科技作为国产先进光学测量与传感测量仪器制造商,此次携两款创新
    的头像 发表于 11-20 17:15 1434次阅读
    技术感知世界!昊衡科技在第四届飞行器健康管理技术国际高端论坛暨青年<b class='flag-5'>科学家</b>论坛等您!

    科学家利用微波激光照射钻石,制造出时间准晶体

    科学家利用微波激光照射钻石,制造出时间准晶体。 美国华盛顿大学、麻省理工学院和哈佛大学科学家携手,成功在钻石上“雕刻”出一种全新的物质形态:时间准晶体。这项突破有望为量子计算、精确计时等领域带来
    的头像 发表于 11-19 07:35 54次阅读
    <b class='flag-5'>科学家</b>利用微波激光照射钻石,制造出时间准晶体

    第四届飞行器健康管理技术国际高端论坛暨青年科学家论坛:昊衡科技,欢迎您来!

    大会介绍第四届飞行器健康管理技术国际高端论坛暨青年科学家论坛将于2025年11月19-21日在中国厦门举行。会议由厦门大学和江南大学联合主办,围绕飞行器健康管理与智能运维,以“数字时代、智领运维
    的头像 发表于 11-14 17:36 2805次阅读
    第四届飞行器健康管理技术国际高端论坛暨青年<b class='flag-5'>科学家</b>论坛:昊衡科技,欢迎您来!

    国际类脑计算科学家Yulia Sandamirskaya教授加盟时识科技

    近日,国际类脑计算与神经形态机器人领域知名科学家Yulia Sandamirskaya 教授,作为科学家顾问正式加入时识科技(SynSense)。
    的头像 发表于 10-13 13:50 449次阅读

    科技感拉满!鲸启智能机器人与无人机联动,闪耀服务世界青年科学家论坛

    9 月 20 日,以 “青年,世界科学的未来” 为主题的世界青年科学家论坛(南京)在江北新区启幕。20 余位诺贝尔奖得主、海内外院士,超百位国际国内青年科学家及产业代表齐聚,围绕前沿科技展
    的头像 发表于 10-11 16:54 127次阅读

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI的科学应用

    AI被赋予了人的智能,科学家们希望在没有人类的引导下,AI自主的提出科学假设,诺贝尔奖级别的假设哦。 AI驱动科学被认为是科学发现的第五个范式了,与实验
    发表于 09-17 11:45

    复星医药使用亚马逊云科技生成式AI技术赋能医疗撰写场景 助力科学家效率跃升

    进程。通过“临床试验报告一致性检查”和“研发文献翻译”两大功能,复星医药可解放科学家生产力,使其专注于创新药研发的核心工作。在亚马逊云科技的加持下,“临床试验报告一致性检查”可覆盖研究人员90%的撰写场景,工作效率提升70%;而在“研发文
    发表于 07-14 14:16 1051次阅读

    地物光谱仪如何帮助科学家研究植被和土壤?

    在遥感、生态、农业等研究领域,科学家们常常会提到一个工具: 地物光谱仪 。它看起来像一台“测光的枪”,却能揭示土壤和植被的“隐藏信息”。那么,地物光谱仪到底是怎么工作的?它又是如何在科学研究
    的头像 发表于 05-20 15:46 408次阅读
    地物光谱仪如何帮助<b class='flag-5'>科学家</b><b class='flag-5'>研究</b>植被和土壤?

    云天励飞董事长陈宁当选深圳市青年科学家协会第十届会长

      2025年3月29日,深圳市青年科学家协会十届一次会员大会在深圳市青少年活动中心南厅隆重举行。百余位青年才俊齐聚一堂,共同见证协会换届选举,共话科技创新未来。共青团深圳市委员会书记胡火明出席了
    的头像 发表于 03-31 19:15 1110次阅读
    云天励飞董事长陈宁当选深圳市青年<b class='flag-5'>科学家</b>协会第十届会长

    我国科学家制备出可控手性石墨烯卷

    日前,我国科学家开发了一种名为“石蜡辅助浸入法”的新技术,成功让二维材料“卷起来”,制备出具有可控手性的石墨烯卷,为未来量子计算和自旋电子器件的发展奠定了坚实基础。 由天津大学教授胡文平、雷圣宾、李
    的头像 发表于 02-26 11:17 754次阅读

    深开鸿亮相“小小科学家”品牌发布暨科学探索研学营开营活动

    为在青少年中营造学科学、爱科学、用科学的浓厚氛围,1月14日,由市委组织部、市委教育工委、团市委共同主办的“小小科学家”品牌发布暨科学探索研
    的头像 发表于 01-15 21:17 835次阅读
    深开鸿亮相“小小<b class='flag-5'>科学家</b>”品牌发布暨<b class='flag-5'>科学</b>探索研学营开营活动

    AI 推动未来科学 晶泰科技共襄未来科学大奖周

    科学家,探讨学科交叉与学术创新,倾力打造兼具权威性、专业性和国际影响力的科学盛会。 未来科学大奖由未来论坛于 2016 年创设,被誉为"中国诺贝尔奖"。未来论坛是当前中国极具声望的民间科学
    的头像 发表于 12-18 09:58 650次阅读
    AI 推动未来<b class='flag-5'>科学</b> 晶泰科技共襄未来<b class='flag-5'>科学</b>大奖周

    西湖大学:科学家+AI,科研新范式的样本

    ,创新科研新范式。这一点在西湖大学的科研项目中已得到体现。 成立于2018年的西湖大学是由施一公院士领衔创办的、聚焦前沿科学研究研究型大学,该校鼓励科学家们探索AI与各学科交叉融合,为科研创新提速。为此,西湖大学在浪潮信息等企
    的头像 发表于 12-12 15:59 851次阅读
    西湖大学:<b class='flag-5'>科学家</b>+AI,科研新范式的样本