0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

ICLR 2019共接收1591篇投稿,创下历年新高

DPVg_AI_era 来源:未知 作者:李倩 2018-11-08 09:43 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

ICLR 2019论文评审结果已经公布,相比沸沸扬扬的NIPS评审争议,ICLR的评审结果没有出现太多争论。我们整理介绍了目前平均分≥8分,排名前6的论文,包括备受关注的最强图像生成器BigGAN等。

ICLR 2019共接收1591篇投稿,创下历年新高。

至于录取率,目前还没有官方公布。从ICLR 2018的情况来看,平均分达到6.57可以被接收,Top 33%的论文可以被接收为poster或talk。但今年的投稿量比去年多得多,去年是996篇,因此预计接收比率会降低。

Rebuttal和讨论的期间是11月5日到11月21日,这期间作者可以回复评审人的评论,并对论文进行修改。

有人做了一个网站:https://chillee.github.io,列举了得分前200的论文和它们的得分。

大部分论文处于4~6.5分之间,论文平均得分分布如下(数据来自chillee.github.io):

投稿论文涉及最多的关键词是强化学习、GAN、生成模型、优化、无监督学习、 表示学习等。

ICLR 2019关键词分布(点击图片可放大)

截至11月5日,大部分论文已经收到全部Review,部分已公布1或2个Review,其余也将在接下来几天陆续放出。

或喜或忧,评审结果争议不大

目前来看,关于ICLR评审结果的反馈没有太多争论。

有Reddit用户表示:“我不得不说,今年ICLR的评审比NIPS的要好得多。至少,到目前为止,在我关注的领域我还没有看到任何ICLR的愚蠢评论。确实,有时评审人会漏看一些论文的瑕疵。但总会有另一个评审人指出来。而且,你可以通过添加公共评论来指出你希望评审人注意到的问题。”

当然,也有人认为ICLR匿名评审有相当大“赌运气”的成分。

有Reddit用户写道:

评审人1反复说 Relativistic GAN只是对系统进行小改进(a tweak),说我的整个方法部分都是“错误的”或者“写得不好”。他的给分是3/10,置信度是2/5。其他评审人给我的论文的评价是“写得很好”,给分是6/10 和 7/10。

所以说,评审完全是一场赌博。这太令人沮丧了!

有人表示同病相怜:

我得到了类似的结果。一位评审人刚说“你的论文需要重写”,并给了一个超级低的分数3/10,他的置信度是2/5。第二位审稿人认真阅读了论文,认真写了评论,包括指出我论文的优点和缺陷,最后给的分数是8/10,他的置信度是4/5。现在我还在等待第三位评审人......这是好事还是坏事,我真的不知道该怎么想了......

也有人提出理性的建议:

我建议你们将会议视为一种“必须申请的免费推广机会”,它会对已经很好的论文有帮助,但评分多少并没有论文的实际影响那么重要。如果以后每个人都开始使用你的relativistic GAN,那么它在哪里发表实际上是无关紧要的(比如GAN、WGAN、AlphaGo,无论在哪里、发表与否,都无法否认它们是伟大的工作这一事实)。

下面,我们选取ICLR 2019目前得分排名前6(≥8.00)的论文作简要介绍。

高分论文Top 6:BigGAN、逆强化学习、后验推理等

高分论文1:Large Scale GAN Training for High Fidelity Natural Image Synthesis

得分:8.45(8,7,10)

在介绍这篇论文之前,让我们先看下面这些图片,请猜猜看,其中哪些是AI生成的假图片,哪些是真实的图片:

答案是,以上全部是GAN生成的假图片!

这些图片来自引起热议的论文“BigGAN”。GAN生成图像的论文很多,有很多也达到足以以假乱真、“效果惊艳”的水平,但BigGAN再次让学界惊叹,它直接将图像生成的指标“Inception Score”提高到166.3,比之前的最好分数提高了两倍。

虽然是匿名提交,不过作者也在arXiv上上传了这篇论文,因此我们得知它的作者:来自英国赫瑞瓦特大学的Andrew Brock,以及来自DeepMind的Jeff Donahue和Karen Simonyan。

摘要

尽管最近的研究在生成图像建模方面取得了不少进展,但从ImageNet这样的复杂数据集中成功生成高分辨率、多样化的样本仍然是一个难以实现的目标。为此,我们训练了迄今为止规模最大的生成对抗网络,并研究了这种规模的不稳定性。我们发现,对生成器应用正交正则化可以使其适用于简单的“截断技巧”(truncation trick),通过截断潜在空间,可以精确地控制样本保真度和多样性之间的权衡。我们的修改导致模型在以类别为条件的图像合成任务中达到新的最优水平。在ImageNet上以128x128分辨率进行训练时,我们的模型(BigGAN)的Inception Score (IS) 为166.3, Frechet Inception Distance (FID)为9.6,之前的最优IS为52.52,FID为18.65。

关键词:GANs, 生成模型, 大规模训练,深度学习

一句话简介:GANs受益于大规模训练

论文地址:

https://openreview.net/pdf?id=B1xsqj09Fm

高分论文2:Variational Discriminator Bottleneck: Improving Imitation Learning, Inverse RL, and GANs by Constraining Information Flow

得分:8.20(6,10,8)

摘要

对抗性学习方法已经得到广泛应用,但是对抗性模型的训练是出了名的不稳定。有效地平衡生成器和鉴别器的性能是至关重要的,因为一个鉴别器如果达到很高的精度,就会产生相对不提供信息的梯度。在这项工作中,我们提出了一种简单而通用的技术,通过信息瓶颈(information bottleneck)来约束鉴别器中的信息流。通过对观测值与鉴别器内部表示之间的相互信息进行约束,我们可以有效地调节鉴别器的准确度,并保持有用且信息丰富的梯度。

我们证明了我们提出的变分鉴别器瓶颈(VDB)导致对抗性学习算法在三个不同应用领域得到显着改进。我们的初步评估研究了VDB对动态连续控制技能(如跑步)的模拟学习的适用性。我们的研究表明,该方法可以直接从原始视频演示中学习这些技能,大大优于以前的对抗性模仿学习方法。VDB还可以与对抗性逆强化学习相结合,以学习可在新设置中转移和重新优化的奖励函数。最后,我们证明了VDB可以更有效地训练GAN生成图像,改进了之前的一些稳定方法。

关键词:强化学习,生成对抗网络,模仿学习,逆强化学习,信息瓶颈

一句话简介:通过信息瓶颈规范对抗性学习,应用于模仿学习、逆向强化学习和生成对抗网络。

论文地址:

https://openreview.net/pdf?id=HyxPx3R9tm

高分论文3:ALISTA: Analytic Weights Are As Good As Learned Weights in LISTA

得分:8.15(10,6,8)

摘要

基于展开迭代算法的深度神经网络,例如,LISTA(earned iterative shrinkage thresholding algorithm),在稀疏信号恢复方面已经取得了经验上的成功。目前,这些神经网络的权重由数据驱动的“黑盒”训练确定。在这项工作中,我们提出了分析LISTA(ALISTA),其中LISTA中的权重矩阵被计算为一个无数据优化问题的解决方案,只将步长和阈值参数留给数据驱动的学习。这显着简化了训练。具体而言,无数据优化问题是基于一致性最小化的。我们证明ALISTA保留了在(Chen et al.,2018)中证明的最佳线性收敛,并且具有与LISTA相当的性能。此外,我们将ALISTA扩展到卷积线性算子,同样以无数据的方式确定。我们还提出了一种前馈框架,结合无数据优化和端到端的ALISTA网络,可以联合训练以获得编码模型的鲁棒性。

关键词:稀疏恢复,神经网络

论文地址:

https://openreview.net/pdf?id=B1lnzn0ctQ

高分论文4:Ordered Neurons: Integrating Tree Structures into Recurrent Neural Networks

得分:8.09(9,7,8)

摘要

递归神经网络(RNN)模型广泛用于处理由潜在树结构控制的序列数据。以前的工作表明,RNN模型(特别是基于长短期记忆LSTM的模型)可以学习利用底层树结构。但是,它的性能始终落后于基于树的模型。这项工作提出了一种新的归纳偏差有序神经元(inductive bias Ordered Neurons),它强制执行隐藏状态神经元之间更新频率的顺序。我们证明有序神经元可以将潜在树结构明确地整合到循环模型中。为此,我们提出了一个新的RNN单元:ON-LSTM,它在四个不同的任务上取得了良好的性能:语言建模、无监督解析、有针对性的句法评估和逻辑推理。

关键词:深度学习,自然语言处理,递归神经网络,语言建模

一句话简介:我们提出一种新的归纳偏差,将树结构集成在递归神经网络中。

论文地址:

https://openreview.net/pdf?id=B1l6qiR5F7

高分论文5:Slimmable Neural Networks

得分:8.08(8,9,7)

摘要

我们提出一种简单而通用的方法来训练可执行不同宽度(一个layer中的通道数)的单个神经网络,从而允许在运行时进行即时且自适应的精确度 - 效率权衡(accuracy-efficiency trade-offs)。

训练好的网络被称为slimmable神经网络,与MobileNet v1、MobileNet v2、ShuffleNet和ResNet-50等单独训练的模型相比,slimmable模型分别在不同的宽度上实现了相似(许多情况下甚至更好)的ImageNet分类精度。在许多任务中,与单个模型相比,slimmable模型有更好的性能,包括COCO边界框对象检测、实例分割和人体关键点检测,而且无需调整超参数。

最后,我们进行了可视化,并讨论了slimmable 网络的学习特性。代码和模型将会开源。

关键词:Slimmable neural networks,移动端深度学习, accuracy-efficiency权衡

一句话简介:我们提出一种简单而通用的方法来训练可执行不同宽度(层中的通道数)的单个神经网络,允许在运行时进行即时和自适应的accuracy-efficiency权衡。

论文地址:

https://openreview.net/pdf?id=H1gMCsAqY7

高分论文6:Posterior Attention Models for Sequence to Sequence Learning

得分:8.00(8,9,7)

摘要

现代神经网络架构严重依赖于将结构化输入映射到序列的注意力机制(attention)。在本文中,我们表明普遍的注意力架构不能充分建模注意力和输出变量之间沿预测序列长度的依赖性。

我们提出一种新的替代架构,称为后验注意力模型(Posterior Attention Models)。它基于注意力和输出变量的完全联合分布的原则分解,提出了两个主要的变化:

首先,注意力被边缘化的位置从输入变成了输出。其次,传播到下一个解码阶段的注意力是一个以输出为条件的后验注意力分布。

在5个翻译任务和2个形态学变换任务中,后验注意力模型比现有的注意力模型产生了更好的预测准确性和对齐精度。

关键词:后验推理,attention,seq2seq learning,翻译

一句话简介:基于后验分布的计算注意力机制可以得到更有意义的attention和更好的表现

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4829

    浏览量

    106900
  • GaN
    GaN
    +关注

    关注

    21

    文章

    2339

    浏览量

    79330
  • 强化学习
    +关注

    关注

    4

    文章

    269

    浏览量

    11910

原文标题:ICLR 2019评审结果出炉!一文看全平均8分论文

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    TE Connectivity 2025财年第四季度销售额增长17%,业绩高于预期

    销售额、经营利润率及现金流均创下全年新高
    的头像 发表于 11-03 15:40 617次阅读
    TE Connectivity 2025财年第四季度销售额增长17%,业绩高于预期

    小鹏汽车8月交付新车37709台

    今日,小鹏汽车公布最新交付成绩:2025年8月,小鹏汽车交付新车37,709台,同比增长169%,环比增长3%,单月交付量再创历史新高。8月27日,全新小鹏P7正式上市,上市7分钟大定突破万台,创小鹏汽车新车上市最快破万纪录。全新小鹏P7市场热度持续攀升,上市后首周末客
    的头像 发表于 09-01 09:51 673次阅读

    模电感选型的关键参数

    今天更新一“电感”文章,与您一起了解一下模电感的应用,直接切入主题。
    的头像 发表于 08-21 13:51 1558次阅读

    后摩智能四论文入选三大国际顶会

    2025 年上半年,继年初被 AAAI、ICLR、DAC 三大国际顶会收录 5 论文后,后摩智能近期又有 4 论文入选CVPR、ICML、ACL三大国际顶会,面向大模型的编码、量化、压缩与微调等技术难题提出创新性解决方案,为
    的头像 发表于 05-29 15:37 1113次阅读

    零死角玩转STM32——系统

    本文4册,由于资料内存过大,分开上传,有需要的朋友可以去主页搜索下载哦~ 《零死角玩转 STM32》系列教程由初级、中级、高级、系统
    发表于 05-21 14:08

    零死角玩转STM32——高级

    本文4册,由于资料内存过大,分开上传,有需要的朋友可以去主页搜索下载哦~ 《零死角玩转 STM32》系列教程由初级、中级、高级、系统
    发表于 05-21 14:02

    零死角玩转STM32——中级

    本文4册,由于资料内存过大,分开上传,有需要的朋友可以去主页搜索下载哦~ 《零死角玩转 STM32》系列教程由初级、中级、高级、系统
    发表于 05-21 13:56

    零死角玩转STM32——初级

    本文4册,由于资料内存过大,分开上传,有需要的朋友可以去主页搜索下载哦~ 《零死角玩转 STM32》系列教程由初级、中级、高级、系统
    发表于 05-21 13:48

    电子工程师自学速成 —— 提高

    本文3册,由于资料内存过大,分开上传,有需要的朋友可以去主页搜索下载哦~ 电子工程师自学速成分为:入门、提高和设计,本文为提高
    发表于 05-15 15:56

    电子工程师自学速成——入门

    本文3册,由于资料内存过大,分开上传,有需要的朋友可以去主页搜索下载哦~ 电子工程师自学速成分为:入门、提高和设计,本文为入门
    发表于 05-15 15:50

    NVIDIA在多模态生成式AI领域的突破性进展

    在今年的国际学习表征大会(ICLR)上,NVIDIA 发表了 70 余论文,其内容涵盖医疗、机器人、自动驾驶汽车以及大语言模型等领域。
    的头像 发表于 05-15 10:49 832次阅读

    安森美SiC JFET栅结构详解

    安森美 (onsemi)cascode FET (碳化硅栅场效应晶体管)在硬开关和软开关应用中有诸多优势,SiC JFET cascode应用指南讲解了栅(cascode)
    的头像 发表于 03-26 17:42 1919次阅读
    安森美SiC JFET<b class='flag-5'>共</b>源<b class='flag-5'>共</b>栅结构详解

    后摩智能5论文入选国际顶会

    2025年伊始,后摩智能在三大国际顶会(AAAI、ICLR、DAC)中斩获佳绩,共有5论文被收录,覆盖大语言模型(LLM)推理优化、模型量化、硬件加速等前沿方向。
    的头像 发表于 02-19 14:02 1222次阅读
    后摩智能5<b class='flag-5'>篇</b>论文入选国际顶会

    高通Q1业绩创历史新高,手机与汽车芯片表现抢眼

    移动芯片大厂高通(Qualcomm)公司于近日公布了其2025会计年度第一季(截至2024年12月29日)的财报,业绩表现出色,创下历史同期新高
    的头像 发表于 02-08 15:48 936次阅读

    鸿海2024年营收创新高,同比增长11.37%

    ,与去年同期相比,增长率高达11.37%。 这一数字不仅标志着鸿海在2024年度取得了显著的营收增长,也创下历年同期的新高。作为全球领先的电子制造服务商,鸿海在电子产品制造领域拥有举足轻重的地位,其业绩表现一直备受业界关注。
    的头像 发表于 01-06 14:22 1568次阅读