0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

1*1卷积核是什么?如何理解1*1卷积的原理?

Dbwd_Imgtec 来源:未知 作者:胡薇 2018-08-24 11:10 次阅读

我们都知道,卷积核的作用在于特征的抽取,越是大的卷积核尺寸就意味着更大的感受野,当然随之而来的是更多的参数。早在1998年,LeCun大神发布的LetNet-5模型中就会出,图像空域内具有局部相关性,卷积的过程是对局部相关性的一种抽取。但是在学习卷积神经网络的过程中,我们常常会看到一股清流般的存在—1*1的卷积!

比如在残差网络的直连里:

残差网络的Bootleneck残差模块里:

在GoogleNet的Inception模块里:

都有1*1卷积核的出现,那么它到底是做什么的?我们应该如何理解1*1卷积的原理?

当1*1卷积出现时,在大多数情况下它作用是升/降特征的维度,这里的维度指的是通道数(厚度),而不改变图片的宽和高。

举个例子,比如某次卷积之后的结果是W*H*6的特征,现在需要用1*1的卷积核将其降维成W*H*5,即6个通道变成5个通道:如下图就是一个W*H*6的特征,而1*1的卷积核在图上标出,卷积核自身的厚度也是6(图画的好难看!!)

通过一次卷积操作,W*H*6将变为W*H*1,这样的话,使用5个1*1的卷积核,显然可以卷积出5个W*H*1,再做通道的串接操作,就实现了W*H*5。在这里先计算一下参数数量,一遍后面说明,5个卷积核,每个卷积核的尺寸是1*1*6,也就是一种有30个参数。

我们还可以用另一种角度去理解1*1卷积,可以把它看成是一种全连接,如下图:

第一层有6个神经元,分别是a1—a6,通过全连接之后变成5个,分别是b1—b5,第一层的六个神经元要和后面五个实现全连接,本图中只画了a1—a6连接到b1的示意,可以看到,在全连接层b1其实是前面6个神经元的加权和,权对应的就是w1—w6,到这里就很清晰了:第一层的6个神经元其实就相当于输入特征里面那个通道数:6,而第二层的5个神经元相当于1*1卷积之后的新的特征通道数:5。w1—w6是一个卷积核的权系数,如何要计算b2—b5,显然还需要4个同样尺寸的核。

最后一个问题,图像的一层相比于神经元还是有区别的,这在于是一个2D矩阵还是一个数字,但是即便是一个2D矩阵的话也还是只需要一个参数(1*1的核),这就是因为参数的权值共享。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4572

    浏览量

    98749
  • 卷积
    +关注

    关注

    0

    文章

    95

    浏览量

    18409

原文标题:如何理解卷积神经网络中的1*1卷积?

文章出处:【微信号:Imgtec,微信公众号:Imagination Tech】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    什么是卷积码? 什么是卷积码的约束长度?

    小。与分组码不同,卷积码编码后的n 个码元不仅与当前段的k 个信息元有关,还与前面的N ?1段信息有关,各码字间不再是相互独立的,码字中互相关联的码元个数为n ? N 。同样,在译码过程中不仅
    发表于 05-30 16:06

    卷积积分的性质

    卷积的性质:1.交换律2.分配律3.结合律
    发表于 09-10 12:11

    FFT与DFT计算时间的比较及圆周卷积代替线性卷积的有效性实

    实验二 FFT与DFT计算时间的比较及圆周卷积代替线性卷积的有效性实验:一 实验目的1:掌握FFT基2时间(或基2频率)抽选法,理解其提高减少乘法运算次数提高运算速度的原理。2:掌握F
    发表于 12-29 21:52

    TCPIP详解 1协议

    TCPIP详解 1协议
    发表于 09-28 12:45

    卷积特性(卷积定理).zip

    卷积特性(卷积定理).zip
    发表于 10-04 11:36

    一文读懂物体分类AI算法:LeNet-5 AlexNet VGG Inception ResNet MobileNet

    的关系。通过反复堆叠3x3卷积和2x2的池化,得到了最大19层的深度。VGG19模型大概508M,错误率降低到7.3%。VGG模型不复杂,只有3x3这一种卷积卷积层基本就是
    发表于 06-07 17:26

    6678卷积

    在ccs5.5下面是否有6678的卷积库,如没有在哪里可以下载?
    发表于 06-21 08:00

    CNN之卷积

    相乘再求和)的操作就是所谓的『卷积』操作,也是卷积神经网络的名字来源。非严格意义上来讲,下图中红框框起来的部分便可以理解为一个滤波器,即带着一组固定权重的神经元。多个滤波器叠加便成了卷积
    发表于 10-17 10:15

    2D卷积的行缓冲区的延迟是多少?

    大家好,我正在Xilinx Artix FPGA上实现一个应用于128x128输入图像的并行流水线5x5卷积器。输入像素通过行缓冲器从外部存储器流式传输。行缓冲区存储前4个完整图像行,然后开始每个
    发表于 05-18 09:52

    卷积神经网络—深度卷积网络:实例探究及学习总结

    《深度学习工程师-吴恩达》03卷积神经网络—深度卷积网络:实例探究 学习总结
    发表于 05-22 17:15

    卷积神经网络一维卷积的处理过程

    。本文就以一维卷积神经网络为例谈谈怎么来进一步优化卷积神经网络使用的memory。文章(卷积神经网络中一维.
    发表于 12-23 06:16

    卷积神经网络模型发展及应用

    分析了目前的特殊模型结构,最后总结并讨论了卷积神经网络在相关领域的应用,并对未来的研究方向进行展望。卷积神经网络(convolutional neural network,CNN) 在计算机视觉[1
    发表于 08-02 10:39

    卷积层的C++实现详细介绍

    卷积层实现在上一篇文章中,我解释了卷积层是对图像的过滤过程,但是并没有解释输入输出通道如何处理,过滤时图像的边缘处理等。由于本文旨在实现层面的理解,因此我将详细介绍这些要点。处理 I/O 通道在图像
    发表于 02-24 15:41

    简谈卷积—幽默笑话谈卷积

    和大侠简单聊一聊卷积,话不多说,上货。 关于卷积,之前在大学时候学信号与系统的时候就感觉理解的不是很深刻,我于是心想一定要把卷积完全搞明白。经过一段时间的思考之后,有一些很有趣的
    发表于 05-25 18:08

    sTm32可以做卷积滤波图片吗?

    sTm32可以做卷积滤波图片吗
    发表于 09-21 07:17