0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

卷积神经网络三大特点_卷积神经网络代码实现

姚小熊27 来源:与非网.博客园 作者:与非网.博客园 2021-05-11 16:41 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

卷积神经网络三大特点

1.局部连接,局部连接会大大减少网络的参数。在处理图像这样的高维度输入时,让每个神经元都与前一层中的所有神经元进行全连接是不现实的。让每个神经元只与输入数据的一个局部区域连接,该连接的空间大小叫做神经元的感受野,它的尺寸是一个超参数,其实就是滤波器的空间尺寸。

2.权值共享,在卷积层中使用参数共享是用来控制参数的数量。每个滤波器与上一层局部连接,同时每个滤波器的所有局部连接都使用同样的参数,此举会同样大大减少网络的参数。

3.空间或时间上的下采样,它的作用是逐渐降低数据的空间尺寸,这样的话就能减少网络中参数的数量,使得计算资源耗费变少,也能有效控制过拟合。

卷积神经网络代码实现

卷积神经网络【Convolutional Neural Networks,CNN】是一类包含卷积计算且具有深度结构的前馈神经网络【Feedforward Neural Networks】是深度学习的代表算法之一。卷积神经网络具有表征学习【representation learning】能力,能够按其阶层结构对输入信息进行平移不变分类。

神经网络实质上是多层函数嵌套形成的数学模型。1998年Yann LeCun等人推出了LeNet-5架构,广泛用于手写字体识别,包含全连接层和sigmoid激活函数,还有卷积层和池化层。

1 # -*- coding: utf-8 -*-

2 “”“

3 Created on Wed Nov 21 17:32:28 2018

4

5 @author: zhen

6 ”“”

7

8 import tensorflow as tf

9 from tensorflow.examples.tutorials.mnist import input_data

10

11 mnist = input_data.read_data_sets(‘C:/Users/zhen/MNIST_data_bak/’, one_hot=True)

12 sess = tf.InteractiveSession()

13

14 def weight_variable(shape):

15 initial = tf.truncated_normal(shape, stddev=0.1)

16 return tf.Variable(initial)

17

18 def bias_variable(shape):

19 initial = tf.constant(0.1, shape=shape)

20 return tf.Variable(initial)

21

22 def conv2d(x, W):

23 return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding=‘SAME’)

24

25 def max_pool_2x2(x):

26 return tf.nn.max_pool(x, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding=‘SAME’)

27

28 x = tf.placeholder(tf.float32, [None, 784])

29 y = tf.placeholder(tf.float32, [None, 10])

30 x_image = tf.reshape(x, [-1, 28, 28, 1])

31

32 # 第一层卷积核

33 W_conv = weight_variable([5, 5, 1, 16])

34 b_conv = bias_variable([16])

35 h_conv = tf.nn.relu(conv2d(x_image, W_conv) + b_conv)

36 h_pool = max_pool_2x2(h_conv)

37

38 # 第二层卷积核

39 W_conv2 = weight_variable([5, 5, 16, 32])

40 b_conv2 = bias_variable([32])

41 h_conv2 = tf.nn.relu(conv2d(h_pool, W_conv2) + b_conv2)

42 h_pool2 = max_pool_2x2(h_conv2)

43

44 # 全连接层

45 W_fc = weight_variable([7 * 7 * 32, 512])

46 b_fc = bias_variable([512])

47 h_pool_flat = tf.reshape(h_pool2, [-1, 7 * 7 * 32])

48 h_fc = tf.nn.relu(tf.matmul(h_pool_flat, W_fc) + b_fc)

49

50 # 防止过拟合,使用Dropout层

51 keep_prob = tf.placeholder(tf.float32)

52 h_fc_drop = tf.nn.dropout(h_fc, keep_prob)

53

54 # Softmax分类

55 W_fc2 = weight_variable([512, 10])

56 b_fc2 = bias_variable([10])

57 y_conv = tf.nn.softmax(tf.matmul(h_fc_drop, W_fc2) + b_fc2)

58

59 # 定义损失函数

60 cross_entropy = tf.reduce_mean(-tf.reduce_sum(y * tf.log(y_conv), reduction_indices=[1]))

61 train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)

62 correct_prediction = tf.equal(tf.argmax(y_conv, 1), tf.argmax(y, 1))

63 accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

64

65 # 训练

66 tf.global_variables_initializer().run()

67 for i in range(20):

68 batch = mnist.train.next_batch(50)

69 train_step.run(feed_dict={x:batch[0], y:batch[1], keep_prob:0.5})

70

71 print(“test accuracy %g” % accuracy.eval(feed_dict={x:mnist.test.images, y:mnist.test.labels, keep_prob:1.0}))

结果:

1.算法模型不变,增大训练集数据【隐藏一层16个卷积核,隐藏二层32个卷积核,全连接层512,10分类】:

2.训练集数据不变,增大卷积核数【数据集为10000,全连接层512,10分类】:

责任编辑:YYX

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • cnn
    cnn
    +关注

    关注

    3

    文章

    356

    浏览量

    23574
  • 卷积神经网络

    关注

    4

    文章

    375

    浏览量

    12952
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    FPGA实现CNN卷积层的高效窗口生成模块设计与验证

    卷积神经网络(CNN)可以分为卷积层、池化层、激活层、全链接层结构,本篇要实现的,就是CNN的卷积层中的window窗。
    的头像 发表于 04-15 10:35 257次阅读
    FPGA<b class='flag-5'>实现</b>CNN<b class='flag-5'>卷积</b>层的高效窗口生成模块设计与验证

    卷积神经网络如何让自动驾驶识别障碍物?

    自动驾驶的发展过程中,感知系统一直承担车辆“眼睛”的角色,其核心任务是让计算机理解复杂多变的物理世界。卷积神经网络(CNN)作为一种专门用于处理图像和视频等网格状数据结构的深度学习模型,已经成为自动驾驶感知的基石。
    的头像 发表于 04-11 09:59 1544次阅读
    <b class='flag-5'>卷积</b><b class='flag-5'>神经网络</b>如何让自动驾驶识别障碍物?

    神经网络的初步认识

    日常生活中的智能应用都离不开深度学习,而深度学习则依赖于神经网络实现。什么是神经网络神经网络的核心思想是模仿生物神经系统的结构,特别是大
    的头像 发表于 12-17 15:05 509次阅读
    <b class='flag-5'>神经网络</b>的初步认识

    自动驾驶中常提的卷积神经网络是个啥?

    在自动驾驶领域,经常会听到卷积神经网络技术。卷积神经网络,简称为CNN,是一种专门用来处理网格状数据(比如图像)的深度学习模型。CNN在图像处理中尤其常见,因为图像本身就可以看作是由像
    的头像 发表于 11-19 18:15 2300次阅读
    自动驾驶中常提的<b class='flag-5'>卷积</b><b class='flag-5'>神经网络</b>是个啥?

    CNN卷积神经网络设计原理及在MCU200T上仿真测试

    数的提出很大程度的解决了BP算法在优化深层神经网络时的梯度耗散问题。当x&gt;0 时,梯度恒为1,无梯度耗散问题,收敛快;当x&lt;0 时,该层的输出为0。 CNN
    发表于 10-29 07:49

    NMSIS神经网络库使用介绍

    :   神经网络卷积函数   神经网络激活函数   全连接层函数   神经网络池化函数   Softmax 函数   神经网络支持功能
    发表于 10-29 06:08

    构建CNN网络模型并优化的一般化建议

    整个模型非常巨大。所以要想实现轻量级的CNN神经网络模型,首先应该避免尝试单层神经网络。 2)减少卷积核的大小:CNN神经网络是通过权值共
    发表于 10-28 08:02

    卷积运算分析

    的数据,故设计了ConvUnit模块实现单个感受域规模的卷积运算. 卷积运算:不同于数学当中提及到的卷积概念,CNN神经网络中的
    发表于 10-28 07:31

    在Ubuntu20.04系统中训练神经网络模型的一些经验

    模型。 我们使用MNIST数据集,训练一个卷积神经网络(CNN)模型,用于手写数字识别。一旦模型被训练并保存,就可以用于对新图像进行推理和预测。要使用生成的模型进行推理,可以按照以下步骤进行操作: 1.
    发表于 10-22 07:03

    CICC2033神经网络部署相关操作

    在完成神经网络量化后,需要将神经网络部署到硬件加速器上。首先需要将所有权重数据以及输入数据导入到存储器内。 在仿真环境下,可将其存于一个文件,并在 Verilog 代码中通过 readmemh 函数
    发表于 10-20 08:00

    液态神经网络(LNN):时间连续性与动态适应性的神经网络

    1.算法简介液态神经网络(LiquidNeuralNetworks,LNN)是一种新型的神经网络架构,其设计理念借鉴自生物神经系统,特别是秀丽隐杆线虫的神经结构,尽管这种微生物的
    的头像 发表于 09-28 10:03 1647次阅读
    液态<b class='flag-5'>神经网络</b>(LNN):时间连续性与动态适应性的<b class='flag-5'>神经网络</b>

    神经网络的并行计算与加速技术

    随着人工智能技术的飞速发展,神经网络在众多领域展现出了巨大的潜力和广泛的应用前景。然而,神经网络模型的复杂度和规模也在不断增加,这使得传统的串行计算方式面临着巨大的挑战,如计算速度慢、训练时间长等
    的头像 发表于 09-17 13:31 1354次阅读
    <b class='flag-5'>神经网络</b>的并行计算与加速技术

    卷积神经网络如何监测皮带堵料情况 #人工智能

    卷积神经网络
    jf_60804796
    发布于 :2025年07月01日 17:08:42

    无刷电机小波神经网络转子位置检测方法的研究

    摘要:论文通过对无刷电机数学模型的推导,得出转角:与相相电压之间存在映射关系,因此构建了一个以相相电压为输人,转角为输出的小波神经网络实现转角预测,并采用改进遗传算法来训练
    发表于 06-25 13:06

    神经网络专家系统在电机故障诊断中的应用

    摘要:针对传统专家系统不能进行自学习、自适应的问题,本文提出了基于种经网络专家系统的并步电机故障诊断方法。本文将小波神经网络和专家系统相结合,充分发挥了二者故障诊断的优点,很大程度上降低了对电机
    发表于 06-16 22:09