0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

深度ReLU网络的对应浅层网络

OpenCV学堂 来源:OpenCV学堂 2023-07-03 14:13 次阅读

只要你用了ReLU,我们就是好朋就是“浅度学习”。

最近有研究证明,所有基于ReLU的深度神经网络都可以重写为功能相同的3层神经网络。

基于这个证明,伦敦国王学院的研究团队还提出一种为任意ReLU网络找到相应浅层网络的算法

由此产生的浅层网络是透明的,可用于解释网络的行为。

只要通过算法,就能找到任意深度ReLU网络的对应浅层网络。

对此网友惊呼:我要读这篇论文,立刻马上!

任何深度ReLU网络都是浅层的

ReLU是深度学习领域最常用的一种激活函数,由Nair & Hintonw在2010为限制玻尔兹曼机(restricted Boltzmann machines)提出的。

由于常常在实践中有着比其他常用激励函数(例如逻辑函数)更好的效果,而被深度神经网络广泛用于图像识别等计算机视觉人工智能领域。

论文指出,每个深度ReLU网络都可以转换为一个功能相同且具有“三个隐藏层”的浅层网络。并提供了一个找到对应浅层网络权重的算法,提高神经网络的全局可解释性。

简单来说就是,通过划分输入空间,使用线性函数对每个分区进行建模,来实现深层网络浅化。

4ed5791e-18b4-11ee-962d-dac502259ad0.png

具体分为这三步。

4f1b78ba-18b4-11ee-962d-dac502259ad0.png

首先,需要构建一个将线性模型和半空间编码的第一层,通过使用一个矩阵来表示半空间条件,其中每个行向量表示一个半空间的线性方程。

然后,构建第二层,该层根据输入的所属区域决定哪些边界是活跃的。

最后,构建第三层,通过将输入与每个线性模型相乘并使用指示函数来选择正确的模型。

基于此,每一个深度ReLU网络都可以被转换为一个功能上相同的三层网络,其权重值在扩展实数中。

当然要完成浅化,还需要一些咒(suan)语(fa)。

根据论文,使用算法时只需找到H、c、α、β这些参数,并知道每个区域所需的半空间就可以,主要分三步。

首先,识别可行的模式集,对于每个可行模式,计算全局线性规划的参数A(l)和d(l)。

然后,确定半空间条件,将这些矩阵堆叠起来,确定每个激活模式的半空间条件。最终得到矩阵H和向量c。

最后,计算局部线性模型,根据模型的权重和激活模式,使用显式公式,计算局部线性模型α和β。

4f8cc07e-18b4-11ee-962d-dac502259ad0.png

简单理解,就是根据已训练好的网络,通过启发式搜索在可能的神经元激活空间中找到合适的权重值。

通过构建浅层白盒网络,能够快速计算出每个数据点的SHAP值,大大提高数据的可解释性。

实验表明,通过上面算法就可以找到给定深度ReLU网络对应的浅层网络的显式权重。

网友:实验很酷,但也有些问题

论文很新颖的提出一个算法,可以实现“深转浅”,不过该方法仍有一些缺点。

比如构建浅层网络使用了无限权重,尽管这些权重可以在Python中实现,但不能使用梯度下降进行微调。

当然,“找茬儿”这块,怎能少得了热心肠的网友。

根据论文可以发现,如果使用团队提供的算法,实验过程中计算时间其实是会随着神经元数量增加呈指数增长。

所以就有网友提出疑惑:算法运行时间与神经元数量成指数关系,12个神经元需要近10分钟,那计算一个普通大小的DNN所需时间岂不是长了去了……

网友指出:假设单层神经网络可以计算任何函数,那么对于任何神经网络来说,这不是都成立吗?

对于这个研究,也有网友犀利表示:这就是个「普遍逼近定理」,没什么大惊小怪的。

不过无论网友怎么说,这篇论文仍然有一些出彩点。

比如,通过这个方式得到的浅层网络是透明的,可以用来生成模型行为的解释。

此外还提供了用于复现实验的代码,供其他研究人员使用来探索和实验。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4575

    浏览量

    98764
  • 网络
    +关注

    关注

    14

    文章

    7251

    浏览量

    87445
  • 函数
    +关注

    关注

    3

    文章

    3901

    浏览量

    61310

原文标题:只要你用ReLU,就是“浅度学习”:任意ReLU神经网络都有等效3层网络

文章出处:【微信号:CVSCHOOL,微信公众号:OpenCV学堂】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    从AlexNet到MobileNet,带你入门深度神经网络

    摘要: 在2018年3月13日云栖社区,来自哈尔滨工业大学的沈俊楠分享了典型模式-深度神经网络入门。本文详细介绍了关于深度神经网络的发展历程,并详细介绍了各个阶段模型的结构及特点。哈尔
    发表于 05-08 15:57

    轻量级深度学习网络是什么

    轻量级深度学习网络概览
    发表于 04-23 14:53

    卷积神经网络深度卷积网络:实例探究及学习总结

    深度学习工程师-吴恩达》03卷积神经网络深度卷积网络:实例探究 学习总结
    发表于 05-22 17:15

    什么是深度残差收缩网络

       深度残差收缩网络深度残差网络的一种新的升级版本,其实是深度残差网络、注意力机制(参照Sq
    发表于 11-26 06:33

    深度神经网络是什么

    多层感知机 深度神经网络in collaboration with Hsu Chung Chuan, Lin Min Htoo, and Quah Jia Yong. 与许忠传,林敏涛和华佳勇合作
    发表于 07-12 06:35

    如何使用深度残差网络进行无人机航拍图像识别

    为了有效提高无人机航拍图像的识别准确率,本文提出了一种基于深度残差网络深度卷积神经网络模型。该模型在深度残差
    发表于 11-16 17:17 5次下载
    如何使用<b class='flag-5'>深度</b>残差<b class='flag-5'>网络</b>进行无人机航拍图像识别

    深度ReLU网络的训练动态过程及其对泛化能力的影响

    基于这个框架,我们试图用统一的观点来解释这些令人费解的经验现象。本文使用师生设置,其中给过度参数化的深度学生ReLU网络的标签,是具有相同深度和未知权重的固定教师
    的头像 发表于 06-15 10:48 3148次阅读
    <b class='flag-5'>深度</b><b class='flag-5'>ReLU</b><b class='flag-5'>网络</b>的训练动态过程及其对泛化能力的影响

    一种基于深度学习的地下浅层震源定位方法

    针对地下能量场聚焦模型中能量聚焦点无法有效识别的冋题,在深度学习的基础上,提出一种地下浅层震源定位方法。利用逆时振幅叠加的方法将传感器阵列获取的震动数据逆时重建为三维能量场图像样本序列,并将其作为
    发表于 03-22 15:58 10次下载
    一种基于<b class='flag-5'>深度</b>学习的地下<b class='flag-5'>浅层</b>震源定位方法

    一种融合深度浅层特征的多视觉癫痫检测算法

    。为了获得更妤的癫痫检测效果,提岀了一种融合深度浅层特征的多视角癫痫检测算法该算法首先使用FFT和WPD来获取EEG信号频域和时频域的浅层特征;然后使用CNN网络学习得到频域和时频域
    发表于 04-07 10:58 8次下载
    一种融合<b class='flag-5'>深度</b>和<b class='flag-5'>浅层</b>特征的多视觉癫痫检测算法

    深度解读对残差网络动机的理解

    神经网络以其强大的非线性表达能力而获得人们的青睐,但是将网络层数加深的过程中却遇到了很多困难,随着批量正则化,ReLU 系列激活函数等手段的引入,在多
    的头像 发表于 04-27 15:37 1293次阅读
    <b class='flag-5'>深度</b>解读对残差<b class='flag-5'>网络</b>动机的理解

    改进的多尺度深度网络手势识别模型

    基于传统的浅层学习网络由于过度依赖于人工选择手势特征,因此不能实时适应复杂多变的自然场景。在卷积神经网络架构的基础上,提岀了一种改进的多尺度深度网络
    发表于 05-29 14:44 8次下载

    基于改进郊狼优化算法的浅层神经网络进化

    基于改进郊狼优化算法的浅层神经网络进化
    发表于 06-24 15:40 15次下载

    浅层到深层神经网络:概览深度学习优化算法

    优化算法一直以来是机器学习能根据数据学到知识的核心技术。而好的优化算法可以大大提高学习速度,加快算法的收敛速度和效果。该论文从浅层模型到深度模型纵览监督学习中常用的优化算法,并指出了每一种优化算法
    的头像 发表于 06-15 11:20 435次阅读
    从<b class='flag-5'>浅层</b>到深层神经<b class='flag-5'>网络</b>:概览<b class='flag-5'>深度</b>学习优化算法

    Dynamic ReLU:根据输入动态确定的ReLU

    这是我最近才看到的一篇论文,它提出了动态ReLU (Dynamic ReLU, DY-ReLU),可以将全局上下文编码为超函数,并相应地调整分段线性激活函数。
    的头像 发表于 09-01 17:28 463次阅读
    Dynamic <b class='flag-5'>ReLU</b>:根据输入动态确定的<b class='flag-5'>ReLU</b>

    浅析深度神经网络压缩与加速技术

    深度神经网络深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似
    的头像 发表于 10-11 09:14 395次阅读
    浅析<b class='flag-5'>深度</b>神经<b class='flag-5'>网络</b>压缩与加速技术