0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

BigBiGAN问世,“GAN父”都说酷的无监督表示学习模型有多优秀?

WpOh_rgznai100 来源:YXQ 2019-07-11 15:48 次阅读

众所周知,对抗训练生成模型(GAN)在图像生成领域获得了不凡的效果。尽管基于GAN的无监督学习方法取得了初步成果,但很快被自监督学习方法所取代。

DeepMind近日发布了一篇论文《Large Scale Adversarial Representation Learning》(大规模对抗性表示学习),提出了无监督表示学习新模型BigBiGAN。

致力于将图像生成质量的提升转化为表征学习性能的提高,基于BigGAN模型的基础上提出了BigBiGAN,通过添加编码器和修改鉴别器将其扩展到图像学习。作者评估了BigBiGAN模型的表征学习能力和图像生成功能,证明在ImageNet上的无监督表征学习以及无条件图像生成,该模型达到了目前的最佳性能。

论文发布后,诸多AI大牛转发并给出了评价。

“GAN之父”Ian Goodfellow表示这很酷,在他读博士期间,就把样本生成双产物的表示学习感兴趣,而不是样本生成本身。

特斯拉AI负责人Andrej Karpathy则表示,自我监督的学习是一个非常丰富的领域(但需要比ImageNet提供更高的密度和结构),这将避免大规模数据集的当前必要性(或在RL中推出)。

1、介绍

近年来,图像生成模型快速发展。虽然这些模型以前仅限于具有单模或多模的结构域,生成的图像结构简单,分辨率低,但随着模型和硬件的发展,已有生成复杂、多模态,高分辨率图像的能力。

图1 BigBiGAN框架框图

联合鉴别器,输入是数据潜在对,

,从数据分布Px和编码器输出中采样,或

从生成器输出和潜在分布Pz中采样。损失包括一元数据项和一元潜在项,以及将数据和潜在分布联系起来的联合项

通过BiGAN或ALI框架学习的编码器,是ImageNet上用于下游任务的可视化表示学习的有效手段。然而,该方法使用了DCGAN样式生成器,无法在该数据集上生成高质量图像,因此编码器可以建模的语义非常有限。作者基于该方法,使用BigGAN作为生成器,能够捕获ImageNet图像中存在的多模态和出现的大部分结构。总体而言,本文的贡献如下:

(1)在ImageNet上,BigBiGAN(带BigGAN的BiGAN生成器)匹配无监督表征学习的最新技术水平

(2)为BigBiGAN提出了一个稳定版本的联合鉴别器

(3)对模型设计选择进行了全面的实证分析和消融实验

(4)表征学习目标还有助于无条件图像生成,并展示无条件ImageNet生成的最新结果

2、BigBiGAN

BiGAN、ALI方法作为GAN框架的扩展,能够学习可以用作推理模型或特征表示的编码器。给定数据项x的分布Px(例如,图像)和潜在项z的分布Pz(通常是像各向同性高斯N(0;I)的简单连续分布),生成器模拟条件概率分布

,给定潜在项z后数据项x的概率值,如标准GAN生成器。编码器对逆条件分布

进行建模,预测给定数据项x的情况下,潜在项z的概率值。

除了添加之外,BiGAN框架中对GAN的另一种修改是联合鉴别器 - 潜在项对(x,z)(而不仅仅是标准GAN中的数据项x),并且学习区分数据分布和编码器对,生成器和潜在分布。具体地说,它的输入对是

的目标是“欺骗”鉴别器,使得被采样的两个联合概率分布难以区分。GAN框架的目标,定义如下:

在这个目标下,在最优最小化联合分布之间的Jensen-Shannon散度,因此在全局最优时,两个联合分布

匹配。此外,在是确定性函数的情况下(即,学习条件分布

是Dirac δ函数),这两个函数是全局最优的逆:例如

,最佳联合鉴别器有效地对x和z施加重建成本。

具体地,鉴别器损失值

其中

优化参数

3、评估

作者在未标记的ImageNet上训练BigBiGAN,固定其表征学习结果,然后在其输出上训练线性分类器,使用所有训练集标签进行全面监督学习。 作者还测量图像生成性能,其中

IS)和

FID)作为标准指标。

3.1 消融

作者先评估了多种模型,见表1。作者使用不同的种子对每个变体进行三次运行并记录每个度量的平均值和标准差。

潜在分布随机值

,其中在给定和线性输出的情况下,预测

一元损失:

评估删除损失函数的一元项影响。只有z一元项和没有一元项的IS和FID性能要比只有x一元项和两者都有的性能差,结果表明x一元项对生成性能有很大的正面影响。

生成器容量:

为了证明生成器在表征学习中的重要性,作者改变生成器的容量观察对结果的影响。实验结果表明,好的图像生成器模型能提高表征学习能力。

带有不同分辨率的的高分辨率

使用更高的分辨率,尽管的分辨率相同,但是生成结果显着改善(尤其是通过FID)。

结构:

使用不同结构的评估性能,结果表明网络宽度增加,性能会得到提升

解耦优化:

优化器与的优化器分离,并发现简单地使用10倍的E学习速率可以显着加速训练并改善最终表征学习结果。

3.2与已有方法比较

表征学习

表1:BigBiGAN变体的结果

在生成图像的IS和FID中,以及ImageNet top-1分类准确率,根据从训练集中随机抽样的10K图像的分割计算,称为Train分裂。每行中基本设置的更改用蓝色突出显示。具有误差范围的结果(写为“μ±σ”)是具有不同随机种子的三次运行的平均值和标准偏差。

表2:使用监督逻辑回归分类器对官方ImageNet验证集上的BigBiGAN模型与最近竞争方法的比较

基于10K训练集图像的trainval子集的最高精度,选择BigBiGAN结果并提前停止。ResNet-50结果对应于表1中的行ResNet(“ELR”),RevNet-50×4对应于RevNet×4(“ELR”)

表3:无监督(无条件)生成的BigBiGAN与已有的无监督BigGAN的比较结果

作者将“伪标签”方法指定为SL(单标签)或聚类。为了进行比较,训练BigBiGAN的步数(500K)与基于BigGAN的方法相同,但也可以在最后一行中对1M步骤进行额外训练,并观察其变化。上述所有结果均包括中值m以及三次运行的平均μ和标准偏差σ,表示为“m(μ±σ)”。BigBiGAN的结果由最佳FID与Train的停止决定的。

无监督图像生成

图2:从无监督的BigBiGAN模型中选择的重建

上图2中第一行表示真实数据x~Px;第二行表示由

3.3 重建

BiGAN E和G通过计算编码器预测的潜在表示E(x),然后将预测的潜在表示传回生成器,得到重建的G(E(x)),从而重构数据实例x。我们在图2中展示了BigBiGAN重构。这些重构远非有像素级的完美度,部分原因可能是目标并没有明确强制执行重构成本,甚至在训练时也没有计算重构。然而,它们可能为编码器学习建模的特性提供一些直观的认识。例如,当输入图像包含一条狗、一个人或一种食物时,重建通常是相同“类别”的不同实例,具有相似的姿势、位置和纹理。这些重构倾向于保留输入的高级语义,而不是低级细节,这表明BigBiGAN训练鼓励编码器对前者建模,而不是后者。

4、相关研究

基于自我监督图像中的无监督表示学习的许多方法被证明是非常成功的。自我监督通常涉及从以某种方式设计成类似于监督学习的任务中学习,但是其中“标签”可以自动地从数据本身创建而无需人工操作。早期的例子是相对位置预测,其中模型在输入的图像块对上进行训练并预测它们的相对位置。

对比预测编码(CPC)是最近的相关方法,其中,给定图像补丁,模型预测哪些补丁出现在其他图像位置中。其他方法包括着色、运动分割、旋转预测和样本匹配。

对这些方法进行了严格的实证比较。相对于大多数自我监督的方法,BigBiGAN和基于生成模型的其他方法的关键优势是它们的输入可能是全分辨率图像或其他信号,不需要裁剪或修改所需的数据。这意味着结果表示通常可以直接应用于下游任务中的完整数据,而不会发生域移位(domain shift)。

还提出了许多相关的自动编码器和GAN变体。关联压缩网络(ACN)学会通过调节其他先前在代码空间中相似的传输数据的数据来压缩数据集级别,从而产生可以“模糊”语义相似样本的模型,类似于BigBiGAN重建。VQ-VAE 将离散(矢量量化)编码器与自回归解码器配对,以产生具有高压缩因子的忠实重建,并在强化学习设置中展示表示学习结果。在对抗性空间中,对抗性自动编码器提出了一种自动编码器式编码器 - 解码器对,用像素级重建成本训练,用鉴别器代替VAE中使用的先验的KL-发散正则化。

在另一个提出的VAE-GAN混合中,在大多数VAE中使用的像素空间重建误差被替换为距GAN鉴别器的中间层的特征空间距离。AGE和α-GAN等其他混合方法增加了编码器来稳定GAN训练。这些方法与BiGAN框架间的一个区别是,BiGAN不会以明确的重建成本训练编码器,虽然可以证明BiGAN隐含地使重建成本最小化,但定性重建结果表明这种重建成本具有不同的风格,强调了像素级细节上的高级语义。

5.探讨

我们已经证明,BigBiGAN是一种纯粹基于生成模型的无监督学习方法,它在ImageNet上实现了图像表示学习的最好的结果。我们的消融实验进一步证实强大的生成模型可以有利于表征学习,反过来,学习推理模型可以改善大规模的生成模型。在未来,我们希望表示学习可以继续受益于生成模型和推理模型的进一步发展,同时扩展到更大的图像数据库。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • GaN
    GaN
    +关注

    关注

    19

    文章

    1762

    浏览量

    67875
  • 无监督学习
    +关注

    关注

    1

    文章

    16

    浏览量

    2732

原文标题:BigBiGAN问世,“GAN父”都说酷的无监督表示学习模型有多优秀?

文章出处:【微信号:rgznai100,微信公众号:rgznai100】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    【书籍评测活动NO.30】大规模语言模型:从理论到实践

    TOP1的桂冠,可想大家对本书的认可和支持! 这本书为什么如此受欢迎?它究竟讲了什么?下面就给大家详细~~ 本书主要内容 本书围绕大语言模型构建的四个主要阶段——预训练、监督微调、奖励建模和强化
    发表于 03-11 15:16

    深度学习的由来 深度学习的经典算法有哪些

    深度学习作为机器学习的一个分支,其学习方法可以分为监督学习和无监督学习。两种方法都具有其独特的学习
    发表于 10-09 10:23 354次阅读
    深度<b class='flag-5'>学习</b>的由来 深度<b class='flag-5'>学习</b>的经典算法有哪些

    自动驾驶操作域监督是什么

    操作域监督(ODS) 操作域监督功能模块图 操作域监督模块监控与动态驾驶任务相关的能力、状态和情况,目的是确保自动驾驶车辆在操作设计域及其他适用的动态和静态约束下运行。它使用两个操作域表示
    的头像 发表于 10-04 18:19 324次阅读
    自动驾驶操作域<b class='flag-5'>监督</b>是什么

    深度学习模型部署与优化:策略与实践;L40S与A100、H100的对比分析

    深度学习、机器学习、生成式AI、深度神经网络、抽象学习、Seq2Seq、VAE、GAN、GPT、BERT、预训练语言模型、Transform
    的头像 发表于 09-22 14:13 656次阅读
    深度<b class='flag-5'>学习</b><b class='flag-5'>模型</b>部署与优化:策略与实践;L40S与A100、H100的对比分析

    Sentry ND网络防御:实时无监督机器学习解决方案

    电子发烧友网站提供《Sentry ND网络防御:实时无监督机器学习解决方案.pdf》资料免费下载
    发表于 09-13 10:19 0次下载
    Sentry ND网络防御:实时无<b class='flag-5'>监督</b>机器<b class='flag-5'>学习</b>解决方案

    机器学习模型评估指标

    机器学习模型指标在机器学习建模过程中,针对不同的问题,需采用不同的模型评估指标。
    发表于 09-06 12:51 445次阅读
    机器<b class='flag-5'>学习</b><b class='flag-5'>模型</b>评估指标

    机器学习模型类型分类

     机器学习按照模型类型分为监督学习模型、无监督学习模型两大类。 1. 有
    的头像 发表于 09-05 11:45 1331次阅读
    机器<b class='flag-5'>学习</b><b class='flag-5'>模型</b>类型分类

    适用于任意数据模态的自监督学习数据增强技术

    本文提出了一种适用于任意数据模态的自监督学习数据增强技术。   自监督学习算法在自然语言处理、计算机视觉等领域取得了重大进展。这些自监督学习算法尽管在概念上是通用的,但是在具体操作上是基于特定的数据
    的头像 发表于 09-04 10:07 783次阅读
    适用于任意数据模态的自<b class='flag-5'>监督学习</b>数据增强技术

    深度学习框架和深度学习算法教程

    了基于神经网络的机器学习方法。 深度学习算法可以分为两大类:监督学习和无监督学习监督学习的基本任务是训练
    的头像 发表于 08-17 16:11 706次阅读

    基础模型监督预训练的数据之谜:大量数据究竟是福还是祸?

    大型语言模型如 ChatGPT 的成功彰显了海量数据在捕捉语言模式和知识方面的巨大潜力,这也推动了基于大量数据的视觉模型研究。在计算视觉领域,标注数据通常难以获取,自监督学习成为预训练的主流方法
    的头像 发表于 07-24 16:55 290次阅读
    基础<b class='flag-5'>模型</b>自<b class='flag-5'>监督</b>预训练的数据之谜:大量数据究竟是福还是祸?

    基于GaN电源集成电路的300W模图腾柱PFC

    采用GaN电源集成电路的300W模图腾柱PFC
    发表于 06-19 08:56

    LeCun世界模型首个研究!自监督视觉像人一样学习和推理!

    今日,Meta 推出了首个基于 LeCun 世界模型概念的 AI 模型。该模型名为图像联合嵌入预测架构(Image Joint Embedding Predictive Architecture, I-JEPA),它通过创建外部
    的头像 发表于 06-15 15:47 225次阅读
    LeCun世界<b class='flag-5'>模型</b>首个研究!自<b class='flag-5'>监督</b>视觉像人一样<b class='flag-5'>学习</b>和推理!

    基于NeRF的隐式GAN架构

    一小部分2D图像合成复杂3D场景的新视图方面提供了最先进的质量。 作者提出了一个生成模型HyperNeRFGAN,它使用超网络范式来生成由NeRF表示的三维物体。超网络被定义为为解决特定任务的单独目标网络生成权值的神经模型。基于
    的头像 发表于 06-14 10:16 726次阅读
    基于NeRF的隐式<b class='flag-5'>GAN</b>架构

    最新成果展示:AlInN/GaN DBR模型数据库的开发与应用

    赛米卡尔科技有限公司技术团队基于先进的TCAD仿真设计平台开发出了晶格匹配的AlInN/GaN DBR模型数据库,并系统地研究了晶格匹配的AlInN/GaN底部DBR结构对GaN基垂直
    的头像 发表于 06-07 13:49 293次阅读
    最新成果展示:AlInN/<b class='flag-5'>GaN</b> DBR<b class='flag-5'>模型</b>数据库的开发与应用

    模型学习可转移的语义分割表示方面的有效性

    当前语义分割任务存在一个特别常见的问题是收集 groundtruth 的成本和耗时很高,所以会使用预训练。例如监督分类或自监督特征提取,通常用于训练模型 backbone。基于该问题,这篇文章介绍的方法被叫做 decoder d
    的头像 发表于 05-18 11:35 552次阅读
    <b class='flag-5'>模型</b>在<b class='flag-5'>学习</b>可转移的语义分割<b class='flag-5'>表示</b>方面的有效性