0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

机器学习中的函数:M-P神经元、激活函数和感知机

wFVr_Hardware_1 来源:硬件十万个为什么 作者:硬件十万个为什么 2022-11-02 14:42 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

怎样理解激活函数呢?如果你现在正在一个世界500强的大厂里敲代码,工作压力巨大,“996”已经成为常态,但是你思前想后,考虑这份工作的薪水(权重w1)、免费午餐和咖啡(权重w2)、你对编码的热爱(权重w3)、公司离家近(权重w4)、老婆对你工作的认可(权重w5)等因素,综合衡量后你决定忍了,或者说这一切并没有超出你忍耐的阈值,把你的忍耐“功能”看作一个函数,那么在这种场景下相当于你的函数输出为0,目前还处于没有被激活状态。但是事情总是向你意想不到的方向变化的,你发现“996”正在逐步变成“007”,或者免费咖啡变成免费白水了,再或者上述因素的权重开始调整了,比如你好像不太在乎老婆对你的工作是否认可了,你终于不忍了,这时函数输出超出了阈值,你把自己激活了,扬长而去。

1、一切的基础:M-P神经元

深度学习网络实质上是层数较多的神经网络,那什么是神经网络呢?简单来说是一种模仿动物神经网络行为特征,进行分布式并行处理信息的算法模型。人们总可以从万能的大自然中学习到很多,比如通过研究鸟儿的翅膀发明飞机,在研究蝙蝠时获得发明雷达的灵感,人们同样也希望效仿大脑神经网络而获得智能。

模仿大脑神经元的最早实例,是20世纪40年代提出并且一直沿用至今的“M-P神经元模型”,这个M-P是什么意思啊?这里有一段故事。

M-P神经元模型,最早源于发表于1943年的一篇论文,论文的两位作者分别是神经生理学家沃伦·麦克洛克(Warren McCulloch)和数学家沃尔特·皮茨(Walter Pitts),论文首次实现了用一个简单电路(也就是未来大名鼎鼎的感知机)来模拟大脑神经元的行为。那时受《数学原理》的启发,麦克洛克正在尝试用戈特弗里德·莱布尼茨(微积分发明人)的逻辑演算来构建一个大脑模型,这是一件极富挑战性的事。麦克洛克猜想神经元的工作机制很可能类似于逻辑门电路,接受多个输入,产生单一的输出,而通过改变神经元的激发阈值以及神经元之间的连接程度,就可以让它执行“与、或、非”等功能。但是麦克洛克的强项是神经科学,他不擅长数学,难以形式化描述自己的想法。这时颇有数学才华的皮茨出场了,正好补其短板。当麦克洛克和皮茨完成他们的计算实验时,实际上构造了一个操作性非常强的机械型精神模型,后人就用二人名称的首字母称呼这个模型“M-P神经元模型”。基于他们的研究发现,麦克洛克和皮茨写了一篇学术文章,这篇文章就是神经网络的天下第一文《神经活动中思想内在性的逻辑演算》(A Logical Calculus ofIdeas Immanent in Nervous Activity),发表在著名期刊《数学生物物理学通报》。

2、神经网络被激活:激活函数

M-P神经元模型中,神经元接收来自n个其他神经元传递过来的输入信号。这些信号的表达通常通过神经元之间连接的权重(Weight)大小来表示,神经元将接收到的输入值按照某种权重叠加起来,汇集了所有其他外联神经元的输入,并将其作为一个结果输出。但这种输出并非直接输出,而是与当前神经元的阈值(θ就是阈值)进行比较,然后通过激活函数f(Activation Function)向外表达输出,y就是最终的输出。

怎样理解激活函数呢?如果你现在正在一个世界500强的大厂里敲代码,工作压力巨大,“996”已经成为常态,但是你思前想后,考虑这份工作的薪水(权重w1)、免费午餐和咖啡(权重w2)、你对编码的热爱(权重w3)、公司离家近(权重w4)、老婆对你工作的认可(权重w5)等因素,综合衡量后你决定忍了,或者说这一切并没有超出你忍耐的阈值,把你的忍耐“功能”看作一个函数,那么在这种场景下相当于你的函数输出为0,目前还处于没有被激活状态。但是事情总是向你意想不到的方向变化的,你发现“996”正在逐步变成“007”,或者免费咖啡变成免费白水了,再或者上述因素的权重开始调整了,比如你好像不太在乎老婆对你的工作是否认可了,你终于不忍了,这时函数输出超出了阈值,你把自己激活了,扬长而去

神经元的工作模型存在“激活-》1”和“抑制-》0”两种状态的跳变,理想的激活函数就应该是的阶跃函数,但在实际使用中,这类函数具有不光滑、不连续等众多不“友好”的特性, 于是Sigmoid激活函数,Tanh 激活函数,ReLU激活函数,Softmax激活函数等等加强版出现,根据不同需求各显神通。

3、神经网络的“Hello World”:感知机

感知机是由康奈尔航空实验室的心理学教授弗兰克·罗森布拉特(Frank Rosenblatt)在1957年提出的一种人工神经网络,也被视为一种形式最简单的前馈式人工神经网络,是一种二元线性分类器。罗森布拉特做了一个在当时看来非常令人“惊艳”的实验,实验的训练数据是50组图片,每组两幅,由一张标识向左和一张标识向右的图片组成。学着,学着,这部感知机就能“感知”出最佳的连接权值。然后,对于一个全新的图片,在没有任何人工干预的情况下,它能“独立”判定出图片标识为左还是为右。

感知机是一切神经网络学习的起点,是神经网络学习“Hello World”。感知机也被称为“阈值逻辑单元”,我们在上文说“激活函数”时已经讲解过原理了。感知机有明确的结果导向性,比如下图感知机的实例,目的就是区分“西瓜和香蕉”,感知机的“学习”就是,就是通过不断的循环往复的试错,调整神经元之间的连接权值(w参数值)和神经元阈值(θ参数值)等规则,最终只要能达到良好的分类目的就是好的规则。

4、人工智能的寒冬:感知机的问题

聪慧的你可能发现,感知机很容易实现逻辑上的“与、或、非”等原子布尔函数,但是感知机难以实现常见的“异或”逻辑操作。1972年,明斯基出版了《感知机:计算几何简介》一书,在书中论述了感知机模型存在的两个关键问题,一是单层神经网络无法实现“异或门电路”等功能,第二是,即使使用当时最先进的计算机,也没有足够的计算能力去完成神经网络模型训练所需的超大的计算量(比如调整网络中的权重参数)。这篇文章把人工智能送进了长达二十年的“冬天”,由于看不到前景,人工智能研究获得的经费大幅度减少,不少研究人员也不得不转行。

审核编辑:郭婷


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4827

    浏览量

    106792
  • 机器学习
    +关注

    关注

    66

    文章

    8541

    浏览量

    136230

原文标题:机器学习中的函数(1)- 激活函数和感知机

文章出处:【微信号:Hardware_10W,微信公众号:硬件十万个为什么】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    神经元设备和脑接口有何渊源?

    HUIYING神经元设备的发展历程概述神经元设备的发展经历了从基础信号检测到多功能智能集成的演进过程。自1920年代脑电图(EEG)信号首次被发现以来,神经电极技术逐步发展,如1957年出现的钨微丝
    的头像 发表于 11-03 18:03 1159次阅读
    <b class='flag-5'>神经元</b>设备和脑<b class='flag-5'>机</b>接口有何渊源?

    激活函数ReLU的理解与总结

    《The Organization of Behavior》论文中描述了神经元学习法则。 人工神经网络更进一步被美国神经学家Frank Rosenblatt所发展。他提出了可以模拟人
    发表于 10-31 06:16

    NMSIS神经网络库使用介绍

    :   神经网络卷积函数   神经网络激活函数   全连接层函数   
    发表于 10-29 06:08

    脉冲神经元模型的硬件实现

    如图所示展示了LIF神经元的膜电势Vmem随时间戳timestamp动态变化的过程,当接收到输入脉冲后,LIF神经元的膜电势值Vmem便会升高,直至达到阈值电压Vthersh,此时神经元产生输出脉冲
    发表于 10-24 08:27

    SNN加速器内部神经元数据连接方式

    的数量级,而且生物轴突的延迟和神经元的时间常数比数字电路的传播和转换延迟要大得多,AER 的工作方式和神经网络的特点相吻合,所以受生物启发的神经形态处理器的NoC或SNN加速器通常使
    发表于 10-24 07:34

    【「AI芯片:科技探索与AGI愿景」阅读体验】+神经形态计算、类脑芯片

    。是实现类脑芯片的基本模型。SNN神经元通过短的电脉冲相互沟通,脉冲之间的时间间隔起着重要作用。 最有利于硬件实现的脉冲神经元模型是“漏电整合-激发”模型: 与DNN相比,SNN的优势与区别
    发表于 09-17 16:43

    基于神经网络的数字预失真模型解决方案

    在基于神经网络的数字预失真(DPD)模型,使用不同的激活函数对整个系统性能和能效有何影响?
    的头像 发表于 08-29 14:01 3065次阅读

    无刷直流电机单神经元自适应智能控制系统

    摘要:针对无刷直流电机(BLDCM)设计了一种可在线学习的单神经元自适应比例-积分-微分(PID)智能控制器,通过有监督的 Hebb学习规则调整权值,每次采样根据反馈误差对神经元权值进
    发表于 06-26 13:36

    无刷直流电机单神经元PI控制器的设计

    摘要:研究了一种基于专家系统的单神经元PI控制器,并将其应用于无刷直流电机调速系统。控制器实现了PI参数的在线调整,在具有PID控制器良好动态性能的同时,减少微分项对系统稳态运行时的影响,并较好
    发表于 06-26 13:34

    蚌埠:传感“神经元激活产业新脉动,智能传感器产业迈向千亿新征程

    的"神经元",用微小身躯传递着海量信号。而在安徽蚌埠,一场关于"感知"的产业革命正澎湃上演。   群贤毕至探"智感",第七届智能传感器产业发展大会启幕   5月24日,淮河之畔的蚌埠迎来一场科技盛宴——以"芯聚江淮 智感世界"为主题的
    的头像 发表于 05-28 18:09 588次阅读

    详解RTOS的Hook函数

    Hook函数是RTOS的一个关键特性,通过该函数,用户可以增强对任务管理的控制,定义系统行为。
    的头像 发表于 03-24 16:14 834次阅读

    BP神经网络的实现步骤详解

    网络的层数、每层神经元的数量以及激活函数。 初始化权重和偏置 : 随机初始化输入层与隐藏层、隐藏层与隐藏层、隐藏层与输出层之间的连接权重,以及各层的偏置项。这些权重和偏置在训练过程中会逐渐调整。 设置
    的头像 发表于 02-12 15:50 1119次阅读

    BP神经网络的基本原理

    输入层、隐藏层和输出层组成。其中,输入层负责接收外部输入数据,这些数据随后被传递到隐藏层。隐藏层是BP神经网络的核心部分,它可以通过一层或多层神经元对输入数据进行加权求和,并通过非线性激活函数
    的头像 发表于 02-12 15:13 1515次阅读

    如何训练BP神经网络模型

    从输入层向输出层传播的过程。具体来说,输入层的信号经过加权和运算后传递给隐藏层,隐藏层的神经元接收来自前一层的信号,经过激活函数处理后再传递给下一层,直到最终到达输出层。每一层的输出都是下一层输入的来源。其中,y表示当前
    的头像 发表于 02-12 15:10 1463次阅读

    深度学习入门:简单神经网络的构建与实现

    深度学习神经网络是核心模型。今天我们用 Python 和 NumPy 构建一个简单的神经网络。 神经网络由多个
    的头像 发表于 01-23 13:52 840次阅读