0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

通过删除神经元理解深度学习

DPVg_AI_era 来源:未知 作者:邓佳佳 2018-03-26 10:14 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

理解深度神经网络的运作机制对于帮助我们解释它们的决定,以及构建更强大的系统起到了至关重要的作用。例如,试想在不了解个体齿轮如何啮合的情况下去构建时钟会有多么的困难。在神经科学和深度学习中,理解神经网络的一种方法是调查个体神经元所扮演的“角色”,尤其是那些易于解释的神经元。

我们对单一方向泛化的重要性的研究(On the importance of single directions for generalization)即将在第六届国际学习表征会议 (ICLR)上问世,该研究采用的方法受到数十年实验神经科学的启发– 通过探索删除神经元带来的影响 – 来确定深度神经网络中神经元小组的重要性,以及相对容易解释的神经元是否对神经网络的计算更为重要?

我们通过删除单个神经元以及神经元小组对其所在的网络性能的损害来研究它们的影响力。我们的实验带来了两个令人惊讶的发现:

虽然以前的许多研究都集中于解读易解释的单个神经元(例如,“猫神经元”,或深层网络隐藏层中只对猫的图像有反应的神经元),但是我们发现这些可解释的神经元相对于难懂的,难以解释其活动的神经元来说并没有更加重要。

能够对未知图像进行正确分类的网络比只能对已知图像进行正确分类的神经网络更能适应神经元的删除。换句话说,泛性好的网络比那些记忆网络更少依赖单一方向的输入。

“猫神经元”可能更易于解释,但它们并不重要

在神经科学和深度学习中,对单个输入类别的图像(例如狗)作出响应的易于解释的神经元(“选择性”神经元)已经得到了广泛的研究。在深度学习中,这导致了对猫神经元,情绪神经元和括号神经元的强调;在神经科学,有詹妮弗安妮斯顿神经元研究,等等。然而,这些少数高选择性神经元相对于大多数具有低选择性、更难懂,难以解释其活动的神经元的重要性仍然未知。

具有明显响应模式(例如,对猫活跃,对其他所有活动不活跃)的神经元比看到随机图像活跃和不活跃的神经元更容易解释。

为了评估(某个)神经元的重要性,我们测量了当该神经元被删除时,神经网络在图像分类任务上的表现变化。如果一个神经元是非常重要的,删除它应会对神经网络产生高度的破坏性,大大降低该网络的性能;相反地,删除一个不重要的神经元则应该无法对神经网络构成很大影响。神经科学家经常进行类似的实验,然而他们很难达到这些实验所需的精度,而这精度在人工神经网络中恰恰容易获得。

删除神经元对简单神经网络影响的直观图示。颜色较深的神经元更加活跃。尝试点击隐藏层中的神经元并删除它们,观察输出神经元的活动会如何改变。请注意,删除一个或两个神经元对输出影响很小,而删除大部分神经元则会对输出影响很大,并且一些神经元比其他神经元更重要!

令人惊讶的是,我们发现选择性强的神经元和重要性之间几乎没有关系。换句话说,“猫神经元”并不比难懂神经元更加重要。这一发现与最近在神经科学方面的工作相互呼应,即难懂神经元实际上可以提供很多信息。我们需将视野拓展到最易于解释的神经元以外来了解深度神经网络。

“猫神经元”可能更易解释,但它们并不比难懂的没有明显偏好的神经元更重要。尝试点击上图的二维线画图函数,看看重要性和易解释性之间的关系!

尽管可解释的神经元在直觉上更容易理解(“它喜欢狗”),但它们并不比难懂的,没有明显偏好的神经元更重要。

越泛化的神经网络,越难被打破

对于我们正在努力构建的智能系统来说,只有当这种系统能够推广到对新的情况进行解读时,我们才能称之为智能系统。例如,一个图像分类网络如果只能对以前看过的特定狗的图像进行分类,而不能对同一只狗的新的图像进行分类的话,那么它是无用的。只有当它可以对新的例子进行智能分类时,这个系统才能展现了它的效用。 一篇由Google Brain,Berkeley大学和DeepMind最近在ICLR 2017上获得最佳论文的合作论文表明,深度网络可以简单地记住它们接受过培训的每个图像,然而却不能以类人类的方式对图像进行学习(例如,了解抽象的“狗”概念)。

通常我们不知道网络是否已经学会了一种能够推广到新情况的解决方案。通过逐渐删除越来越大的神经元组,我们发现,相比起对以前训练期间看到的图像进行简单记忆的网络,泛化良好的网络在应对删除时表现出的稳健性要强得多。换句话说,泛化好的网络很难被打破(尽管它们肯定还是会被打破的)。

随着越来越多的神经元组被删除,泛化的网络性能的下降速度远远低于记忆网络的性能。

通过以这种衡量网络的稳健性的方式,我们可以评估一个网络是否在利用记忆来进行“欺骗”。了解网络在进行记忆时的变化将有助于我们建立新的网络,这种网络记忆较少,泛化较强。

受到神经科学启发的分析

总之,这些发现证明了使用受实验神经科学启发的技术对理解神经网络的重要作用。通过这些方法,我们发现选择性强的个体神经元并不一定比不具选择性的神经元更加重要,并且,单个神经元对泛化的网络的影响比其对单纯依靠记忆数据训练出来的网络更小。这些结果意味着单个神经元的重要性可能比你乍看上去的要低。

试图了解所有神经元,而不仅仅是那些易于理解的神经元的作用可以帮助我们更好地理解神经网络的内部工作,更加重要的是,我们可以利用这种理解来构建更加智能和应用广泛的系统。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经
    +关注

    关注

    0

    文章

    46

    浏览量

    12758
  • 深度学习
    +关注

    关注

    73

    文章

    5590

    浏览量

    123904

原文标题:DeepMind 最新研究:通过删除神经元理解深度学习

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    神经元设备和脑机接口有何渊源?

    HUIYING神经元设备的发展历程概述神经元设备的发展经历了从基础信号检测到多功能智能集成的演进过程。自1920年代脑电图(EEG)信号首次被发现以来,神经电极技术逐步发展,如1957年出现的钨微丝
    的头像 发表于 11-03 18:03 1160次阅读
    <b class='flag-5'>神经元</b>设备和脑机接口有何渊源?

    激活函数ReLU的理解与总结

    具有很强的处理线性不可分机制。那么在深度网络中,对非线性的依赖程度就可以缩一缩。一旦神经元神经元之间改为线性激活,网络的非线性部分仅仅来自于神经元部分选择性激活。 对比大脑工作的9
    发表于 10-31 06:16

    脉冲神经元模型的硬件实现

    ;其中配置信息通过 APB 接口配置到神经元状态存储模块和突触存储模块,对神 经核使用的神经元模型参数,突触权重,神经元个数等参数进行初始化。控制模块负责安排
    发表于 10-24 08:27

    SNN加速器内部神经元数据连接方式

    所谓地址事件表达(Address Event Representation,AER),是指通过地址的方式将事件进行表达,然后按时间顺序复用到总线上。已知生物神经元产生脉冲的频率比数字电路要低很多
    发表于 10-24 07:34

    液态神经网络(LNN):时间连续性与动态适应性的神经网络

    神经元,但却能产生复杂的行为。受此启发,与传统的神经网络相比,LNN旨在通过模拟大脑中神经元之间的动态连接来处理信息,这种网络能够顺序处理数据,并且保留了对过去输
    的头像 发表于 09-28 10:03 700次阅读
    液态<b class='flag-5'>神经</b>网络(LNN):时间连续性与动态适应性的<b class='flag-5'>神经</b>网络

    【「AI芯片:科技探索与AGI愿景」阅读体验】+神经形态计算、类脑芯片

    。是实现类脑芯片的基本模型。SNN中的神经元通过短的电脉冲相互沟通,脉冲之间的时间间隔起着重要作用。 最有利于硬件实现的脉冲神经元模型是“漏电整合-激发”模型: 与DNN相比,SNN的优势与区别
    发表于 09-17 16:43

    如何在机器视觉中部署深度学习神经网络

    图 1:基于深度学习的目标检测可定位已训练的目标类别,并通过矩形框(边界框)对其进行标识。 在讨论人工智能(AI)或深度学习时,经常会出现“
    的头像 发表于 09-10 17:38 692次阅读
    如何在机器视觉中部署<b class='flag-5'>深度</b><b class='flag-5'>学习</b><b class='flag-5'>神经</b>网络

    新一代神经拟态类脑计算机“悟空”发布,神经元数量超20亿

    电子发烧友网综合报道 8月2日,浙江大学脑机智能全国重点实验室发布新一代神经拟态类脑计算机——Darwin Monkey(中文名“悟空”)。   “悟空”堪称国际首台神经元规模超20亿、基于专用神经
    的头像 发表于 08-06 07:57 7271次阅读
    新一代<b class='flag-5'>神经</b>拟态类脑计算机“悟空”发布,<b class='flag-5'>神经元</b>数量超20亿

    无刷直流电机单神经元自适应智能控制系统

    摘要:针对无刷直流电机(BLDCM)设计了一种可在线学习的单神经元自适应比例-积分-微分(PID)智能控制器,通过有监督的 Hebb学习规则调整权值,每次采样根据反馈误差对
    发表于 06-26 13:36

    无刷直流电机单神经元PI控制器的设计

    刷直流电机单神经元PI控制器的设计.pdf 【免责声明】本文系网络转载,版权归原作者所有。本文所用视频、图片、文字如涉及作品版权问题,请第一时间告知,删除内容,谢谢!
    发表于 06-26 13:34

    BP神经网络的网络结构设计原则

    ,仅作为数据输入的接口。输入层的神经元个数通常与输入数据的特征数量相对应。 隐藏层 :对输入信号进行非线性变换,是神经网络的核心部分,负责学习输入与输出之间的复杂映射关系。隐藏层可以有一层或多层,层数和
    的头像 发表于 02-12 16:41 1254次阅读

    BP神经网络与卷积神经网络的比较

    多层。 每一层都由若干个神经元构成,神经元之间通过权重连接。信号在神经网络中是前向传播的,而误差是反向传播的。 卷积神经网络(CNN) :
    的头像 发表于 02-12 15:53 1307次阅读

    BP神经网络与深度学习的关系

    ),是一种多层前馈神经网络,它通过反向传播算法进行训练。BP神经网络由输入层、一个或多个隐藏层和输出层组成,通过逐层递减的方式调整网络权重,目的是最小化网络的输出误差。 二、
    的头像 发表于 02-12 15:15 1340次阅读

    深度学习入门:简单神经网络的构建与实现

    深度学习中,神经网络是核心模型。今天我们用 Python 和 NumPy 构建一个简单的神经网络。 神经网络由多个
    的头像 发表于 01-23 13:52 841次阅读

    人工神经网络的原理和多种神经网络架构方法

    所拟合的数学模型的形式受到大脑中神经元的连接和行为的启发,最初是为了研究大脑功能而设计的。然而,数据科学中常用的神经网络作为大脑模型已经过时,现在它们只是能够在某些应用中提供最先进性能的机器学习模型。近年来,由于
    的头像 发表于 01-09 10:24 2244次阅读
    人工<b class='flag-5'>神经</b>网络的原理和多种<b class='flag-5'>神经</b>网络架构方法