0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

人工神经网络和生物神经网络到底有多像

zhKF_jqr_AI 来源:未知 作者:胡薇 2018-11-17 09:30 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

人工神经网络机器学习已经成为大众媒体的热门主题。智能机器这一想法勾起了很多人的想象,而且人们特别喜欢把它和人类放一起比较。特别是有一个关于人工智能的底层机制的基础问题经常出现——这些人工神经网络的工作方式真的和我们大脑中的神经元相似吗?

Tl;Dr

不。尽管从高层概念上说,ANN(人工神经网络)受到了大脑中的神经元和神经网络的启发,但这些概念的ML实现和大脑的工作方式大有径庭。不仅如此,随着这些年来ML领域的进展,新的复杂想法和技术的提出(RNN、GAN等)——这一联系进一步削弱了。

关键相似点

前馈全连接网络的高层架构和一般原则体现了人工神经网络和大脑中的神经网络的相似性。

从高层看,大脑的神经元由三部分组成:

树突(输入机制)—— 通过突触接受输入的树状结构。输入可能是来自感觉神经细胞的感觉输入,也可能是来自其他神经细胞的“计算”输入。单个细胞可以有多达10万输入(每个来自不同的细胞)。

胞体(计算机制)—— 细胞体收集所有树突的输入,并基于这些信号决定是否激活输出(脉冲)。这是一个概括性的说法,因为有些计算在传入胞体前就完成了(在树突结构中编码)。

轴突(输出机制)—— 一旦胞体决定是否激活输出信号(也就是激活细胞),轴突负责传输信号,通过末端的树状结构将信号以脉冲连接传递给下一层神经元的树突。

类似地,ANN中也有等价的结构:

输入连接—— 每个神经元接受一组输入,或者来自输入层(等价于感觉输入),或者来自网络中前一层的神经元。

线性计算和激活函数—— 这些“累加”输入,接着非线性地决定是否激活神经元。

输出连接—— 这些传递激活信号至网络中下一层的神经元。

类似地,卷积神经网络借鉴了视觉通路。很酷的一件事情是,CNN原本主要借鉴的是架构(对应特定形状或模式的较小的核/过滤器,每次应用于较小的区域)。然而,多年之后,当ML研究人员开发了新的可视化CNN隐藏层的技术后,人们发现CNN表示图像的方式和视皮层的层次表示十分类似——从表示简单模式的第一层开始,较深的层复合出复杂形状和对象。

可塑性—— 大脑的独特性质之一,学习和记忆得以成立的关键特性。大脑基于经历创建新的脉冲连接,废弃旧的脉冲连接,加强或削弱现有的连接。可塑性甚至在单个神经元中起作用——影响它的电磁行为,以及对特定输入作出回应触发激活的趋向。

可塑性这一想法是训练ANN的关键原则——基于批次输入迭代修改网络参数(权重)。最近,元学习领域的进展将ANN中可塑性的应用范围从参数拓展到超参数乃至整个模型。

关键区别

大脑神经元的复杂性和鲁棒性要比人工神经元复杂强大得多。这不仅体现在神经元的数量及每个神经元的树突数量上——比我们现在的ANN高出若干数量级,还体现在单个神经元的内部复杂性上:和人工神经元相比,神经元的化学和电学机制精细得多,也强健得多。例如,神经元不是零电位差的——细胞的不同区域可能具有不同的电位,有不同的电流通过。这让单个神经元可以进行非线性运算,识别随着时间发生的变动(例如,移动的目标),或者将不同的区域并行映射至不同的树突区域——这样整个细胞就可以完成复杂的复合任务。和非常简单的人造神经元相比,这些都是高级很多的结构和能力。

实现—— 大脑中的神经元是以非常复杂和精细的机制实现的,可以进行非常复杂的非线性计算:

信号在神经元突触间隙中的化学传播,是通过神经递质和感受器完成的,并由各种兴奋和抑制元素放大。

基于复杂的时空电磁波推断逻辑,兴奋/抑制性突触后电位构建了动作电位。

离子通道和微电位差控制脉冲的触发,细胞体中的脉冲将沿着轴突传播。

大量我们尚未理解的机制……

和这些相比,ANN中使用的参数、权重、线性函数、激活函数十分简单粗暴。

在此之上,大脑中的神经元的整体架构要比大多数ANN复杂得多,特别是和常见的前馈网络相比(前馈网络的每一层只和前一层、后一层连接)。不过,即使是和多层RNN或者残差网络相比,大脑中的神经元网络也是不可思议地复杂,在许多方向上有着数万跨“层”、跨区域的树突。

另一方面,大脑不太可能使用反向传播这样的方法——基于误差函数的偏导数上的链式法则。

能源消耗—— 大脑是一个极端高效的计算机,差不多十瓦左右,约为单个CPU能耗的三分之一。

GAN、RL、RNN等新进展—— 在ML的理论和应用上,都不断涌现新的想法和创新。这些都不再基于大脑的工作机制。它们也许受到了大脑的启发,或者人类行为的启发,但在许多方面,现在的ML方面的研究和工作过着属于自己的生活——迎接自身的挑战,追寻自身的机遇。

大脑是持续的灵感来源

尽管有上面列出的这些不同,ML研究仍然不断将大脑列为灵感来源,因为大脑比我们现有的计算设备要强健和高效太多。认识人工神经网络和大脑的差距,以及关于大脑机制的研究,激发了一些最激动人心也最具挑战性的ML近期研究。例如:

能效—— 如前所述,大脑的神经元和连接数量比我们创建的任何ANN都要大上若干数量级,但它消耗的能量却要少若干数量级。这是一个很活跃的研究领域,包括基于DNA和其他分子的生物网络,以及试图模仿神经元和突触的神经形态(neuromorphic)电子开关。

从很小的训练样本集学习—— 最有可能是通过一些内置的模型,这些模型对物理法则、心理学、因果关系和其他决定地球上的决策和行动的规则有一些“直觉上的”理解。和现有的通用白板神经网络相比,这些加速了学习,并能指导预测/行动。

释放无监督学习和强化学习的威力—— 无监督学习和强化学习是AI的“暗能量”。物理上,暗能量占据了我们的宇宙的大部分,而我们对其知之甚少。与此类似,很明显我们的大脑主要通过无监督学习和强化学习的方式进行学习。而当前的大部分ML应用使用监督学习。解开这一谜题是构建能像人类一样学习的机器的关键。

新的方法和架构。例如,嗅觉背后的神经系统,可以为新的ML方法提供灵感,处理现有方法无法很好应对的一些问题。

最后,这当然不可能是一个全面的答案,明显还有很多我没提到的相似性和区别。例如,来自多伦多的Blake Richards做了一个很棒的简短演讲:从一个新颖独特的角度陈述了大脑和深度学习在原则上的相似性。事实上,这一问题是我们的时代最激动人心、最复杂、进展最快的两个研究领域的交汇之处,所以你可以期望在未来我们会了解更多。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4829

    浏览量

    106808
  • 人工智能
    +关注

    关注

    1813

    文章

    49746

    浏览量

    261603

原文标题:人工神经网络真的像神经元一样工作吗?

文章出处:【微信号:jqr_AI,微信公众号:论智】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    NMSIS神经网络库使用介绍

    NMSIS NN 软件库是一组高效的神经网络内核,旨在最大限度地提高 Nuclei N 处理器内核上的神经网络的性能并最​​大限度地减少其内存占用。 该库分为多个功能,每个功能涵盖特定类别
    发表于 10-29 06:08

    在Ubuntu20.04系统中训练神经网络模型的一些经验

    本帖欲分享在Ubuntu20.04系统中训练神经网络模型的一些经验。我们采用jupyter notebook作为开发IDE,以TensorFlow2为训练框架,目标是训练一个手写数字识别的神经网络
    发表于 10-22 07:03

    液态神经网络(LNN):时间连续性与动态适应性的神经网络

    1.算法简介液态神经网络(LiquidNeuralNetworks,LNN)是一种新型的神经网络架构,其设计理念借鉴自生物神经系统,特别是秀丽隐杆线虫的
    的头像 发表于 09-28 10:03 708次阅读
    液态<b class='flag-5'>神经网络</b>(LNN):时间连续性与动态适应性的<b class='flag-5'>神经网络</b>

    神经网络的并行计算与加速技术

    随着人工智能技术的飞速发展,神经网络在众多领域展现出了巨大的潜力和广泛的应用前景。然而,神经网络模型的复杂度和规模也在不断增加,这使得传统的串行计算方式面临着巨大的挑战,如计算速度慢、训练时间长等
    的头像 发表于 09-17 13:31 892次阅读
    <b class='flag-5'>神经网络</b>的并行计算与加速技术

    无刷电机小波神经网络转子位置检测方法的研究

    摘要:论文通过对无刷电机数学模型的推导,得出转角:与三相相电压之间存在映射关系,因此构建了一个以三相相电压为输人,转角为输出的小波神经网络来实现转角预测,并采用改进遗传算法来训练网络结构与参数,借助
    发表于 06-25 13:06

    神经网络压缩框架 (NNCF) 中的过滤器修剪统计数据怎么查看?

    无法观察神经网络压缩框架 (NNCF) 中的过滤器修剪统计数据
    发表于 03-06 07:10

    BP神经网络网络结构设计原则

    ,仅作为数据输入的接口。输入层的神经元个数通常与输入数据的特征数量相对应。 隐藏层 :对输入信号进行非线性变换,是神经网络的核心部分,负责学习输入与输出之间的复杂映射关系。隐藏层可以一层或多层,层数和
    的头像 发表于 02-12 16:41 1257次阅读

    BP神经网络与卷积神经网络的比较

    BP神经网络与卷积神经网络在多个方面存在显著差异,以下是对两者的比较: 一、结构特点 BP神经网络 : BP神经网络是一种多层的前馈神经网络
    的头像 发表于 02-12 15:53 1324次阅读

    BP神经网络的优缺点分析

    自学习能力 : BP神经网络能够通过训练数据自动调整网络参数,实现对输入数据的分类、回归等任务,无需人工进行复杂的特征工程。 泛化能力强 : BP神经网络通过训练数据学习到的特征表示
    的头像 发表于 02-12 15:36 1597次阅读

    什么是BP神经网络的反向传播算法

    BP神经网络的反向传播算法(Backpropagation Algorithm)是一种用于训练神经网络的有效方法。以下是关于BP神经网络的反向传播算法的介绍: 一、基本概念 反向传播算法是BP
    的头像 发表于 02-12 15:18 1289次阅读

    BP神经网络与深度学习的关系

    BP神经网络与深度学习之间存在着密切的关系,以下是对它们之间关系的介绍: 一、BP神经网络的基本概念 BP神经网络,即反向传播神经网络(Backpropagation Neural N
    的头像 发表于 02-12 15:15 1358次阅读

    BP神经网络的基本原理

    BP神经网络(Back Propagation Neural Network)的基本原理涉及前向传播和反向传播两个核心过程。以下是关于BP神经网络基本原理的介绍: 一、网络结构 BP神经网络
    的头像 发表于 02-12 15:13 1529次阅读

    BP神经网络在图像识别中的应用

    BP神经网络在图像识别中发挥着重要作用,其多层结构使得网络能够学习到复杂的特征表达,适用于处理非线性问题。以下是对BP神经网络在图像识别中应用的分析: 一、BP神经网络基本原理 BP
    的头像 发表于 02-12 15:12 1192次阅读

    深度学习入门:简单神经网络的构建与实现

    深度学习中,神经网络是核心模型。今天我们用 Python 和 NumPy 构建一个简单的神经网络神经网络由多个神经元组成,神经元之间通过
    的头像 发表于 01-23 13:52 848次阅读

    人工神经网络的原理和多种神经网络架构方法

    在上一篇文章中,我们介绍了传统机器学习的基础知识和多种算法。在本文中,我们会介绍人工神经网络的原理和多种神经网络架构方法,供各位老师选择。 01 人工
    的头像 发表于 01-09 10:24 2264次阅读
    <b class='flag-5'>人工</b><b class='flag-5'>神经网络</b>的原理和多种<b class='flag-5'>神经网络</b>架构方法