0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

机器学习、神经网络和深度学习为何能独领风骚?

深圳创新设计研究院 来源:YXQ 2019-03-31 10:27 次阅读

有“计算机界诺贝尔奖”之称的 ACM AM图灵奖(ACM A.M. Turing Award)近日公布 2018 年获奖者,由引起这次人工智能革命的三位深度学习之父——蒙特利尔大学教授 Yoshua Bengio、多伦多大学名誉教授 Geoffrey Hinton、纽约大学教授 Yann LeCun 获得,他们使深度神经网络成为计算的关键。

据官方公告介绍,因三位巨头在深度神经网络概念和工程上的突破,使得 DNN 成为计算的一个重要构成,从而成为 2018 年图灵奖得主。

ACM这样介绍他们三人的成就:

Hinton、LeCun和Bengio三人为深度神经网络这一领域建立起了概念基础,通过实验揭示了神奇的现象,还贡献了足以展示深度神经网络实际进步的工程进展。

这是图灵奖十年来第三次颁给机器学习领域的杰出贡献者了:2011 年图灵奖得主为 Judea Pearl,他开发的概率与因果推理微积分(calculus for probabilistic and causal reasoning)为人工智能发展做出了重大贡献。Leslie Gabriel Valiant 获得了 2010 年图灵奖,他为计算理论的发展作出了变革性贡献,包括 PAC 学习理论、并行与分布计算理论等。

https://amturing.acm.org/byyear.cfm

其实,现代神经网络、机器学习等AI技术背后的思想,可以追溯到第二次世界大战行将结束之际。彼时,学者们开始构建计算系统,旨在以类似于人类大脑的方式存储和处理信息

而深度神经网络早在1980年代就已经提出,但很快遭受质疑。专注于这种方法的学者,是AI界的少数派,LeCun、Hinton和Bengio就在其中。

三十多年前,是他们一生的至暗时刻。

然而,这一小撮“顽固分子”始终坚持自己的信念,他们不怕被视作蠢货,一直相信神经网络会照亮这个世界,并改变整个人类的命运。

最终他们的信念,也改变了自己的命运。

Geoffrey Hinton

Geoffrey Hinton,1947年生,现年72岁,谷歌的副总裁和工程师,也是AI研究机构Vector Institute的首席科学顾问和多伦多大学的名誉教授。

在ACM颁奖辞博文中,主要提到了Hinton的三个贡献,如果你做过AI项目,肯定不会陌生,它们分别是:

反向传播(Backpropagation)

1986年,在Learning Internal Representations by Error Propagation这篇论文里,Hinton证明了,反向传播能让神经网络发现自己内部的数据表征,这样便可以处理以往无法解决的问题。

如今,反向传播已经是神经网络的标准操作,Hinton也有了“反向传播之父”的名号。

玻尔兹曼机(Boltzmann Machines)

1983年,Hinton和同伴一起发明了玻尔兹曼机,那是最早能够学习神经元内部表征的网络之一:那些表征既不来自输入,也不来自输出。

改进卷积神经网络

2012年,Hinton和学生们一起,利用线性整流神经元(Rectified Linear Neurons)和dropout 正则化改进了卷积神经网络。

在ImageNet比赛上,他们几乎把物体识别的错误率降到了从前的一半,让计算机视觉领域焕然一新。

在获得图灵奖之前,Hinton就已经获得了大量的荣誉,手握加拿大最高荣誉勋章(Companion of the Order of Canada),是顶级认知科学奖鲁梅哈特奖的首位获奖者,也获得了人工智能国际联合会(IJCAI)杰出学者奖终生成就奖等等。

此外,他也是英国皇家学会成员、美国工程院外籍院士。

一个有趣的轶事是,Hinton的高祖父是大名鼎鼎的乔治·布尔——布尔逻辑的创立者,因“布尔检索“而闻名于世。

而即将出场的人,曾经在Hinton的实验室里做过博士后。

Yann LeCun

Yann LeCun,1960年生,58岁,现在是Facebook首席AI科学家。卷积神经网络 (CNN) 之父,是他最为人熟知的名号。

ACM列举的成就,也是从这里开始。

卷积神经网络 (CNN) :

1989年,在AT&T贝尔实验室工作的LeCun,以反向传播为基础,发表了一项研究,叫做“将反向传播用到手写邮编的识别上”。CNN的第一次实现,就是在这里诞生。

如今,CNN已经成为深度学习的基础技术了,不止在计算机视觉领域,在语音合成、语音识别这些应用中,也是行业标准操作。

反向传播雏形:

1985年,Hinton还没有成为反向传播之父的时候,LeCun在巴黎六大读博期间,发表过反向传播的一个早期版本,根据变分原理给出了一个简单的推导过程。

他用两种加速学习的方法,让反向传播变得更快了。

拓展了神经网络的视野:

LeCun不止把神经网络用在图像识别上,还解锁了许多其他任务。他提出的一些概念,如今已经成了AI领域的基础。

比如,在图像识别上,他研究了神经网络怎样学习分层特征表示 (Hierarchical Feature Representation) ,这也成为了如今许多识别任务中常用的概念。

另外,他和同伴Léon Bottou一起提出,学习系统可以由复杂的神经网络构成。在这样的系统里,反向传播是靠自动微分来实现。他们还提出,深度学习架构可以对结构化数据 (比如图形) ,进行处理。

LeCun博士毕业后,只在Hinton的实验室做了一年博士后,就进入了工业界。

不过,他在2003年成为了纽约大学的教授,还在2012年创办了纽大数据科学中心。即便加入Facebook之后,也继续在纽大兼职。

而下一位巨头,也和LeCun一样,横跨学界和产业界。并且,他也在赫赫有名的贝尔实验室工作过。

Yoshua Bengio

Yoshua Bengio,1964年生,55岁,现在是蒙特利尔大学计算机科学与运筹学系教授。

Bengio创建了蒙特利尔学习算法研究所(MILA),担任研究所的科学主任,主持加拿大高等研究院(CIFAR)机器与大脑学习项目的研究。同时,Bengio也担任着数据评估研究所(IVADO)的科学联合主任。

同样,ACM也总结了Bengio的三个主要贡献。

序列的概率模型:

上世纪90年代,Bengio提出了序列的概率模型。他把神经网络和概率模型(例如隐马尔可夫模型)相结合,用新技术识别手写的支票。外界认为,这是20世纪90年代神经网络的巅峰之作,当下语音识别技术就是在它的基础上扩展的。

高维词汇嵌入和注意机制:

Bengio参与发表了一篇里程碑式的论文,A Neural Probabilistic Language Model(神经概率语言模型),把高维词嵌入 (High-Dimentional Word Embeddings) 作为词义的表征。这对NLP研究(如翻译、问答和视觉问答等任务)产生了深远的影响。

生成对抗网络(GAN):

2014年,Bengio与Ian Goodfellow一同发表的生成对抗网络 (GAN) ,引发了计算机视觉和图形学的革命。

据统计,Yoshua Bengio发表的300多篇学术文章的累计引用次数已经超过137000次。

作为教授,Bengio曾经和Ian Goodfellow、Aaron Courville等业界大神一起写出了Deep Learning,成为人手一本的“AI圣经”,不少人将这本书亲切称之为“花书”。

除了学术界,Bengio也活跃在产业界。

曾经,Bengio联合Jean-François Gagné创立了Element AI,为那些想给自家业务寻找机器学习解决方案的公司,找到AI领域的专家。

除此之外,Bengio也有许多荣誉在身。他不仅成为了加拿大皇家学院(RSC)及加拿大高等研究院(CIFAR)的院士,还在2017年获得了代表加拿大公民最高荣誉的“加拿大总督功勋奖”。

机器学习、神经网络和深度学习为何能独领风骚?在传统计算中,计算机程序使用明确、逐步的指令来指导计算机,但在深度学习中,计算机并没有明确被告知该如何解决特定任务,如对象分类。相反地,它使用学习算法来提取数据中的模式(pattern),涉及数据的输入,例如图像的像素、标注、到输出。研究人员面临的挑战是开发有效的学习算法,能够修改人工神经网络中连接的权重,所以可抓取数据中的相关模式。

Geoffrey Hinton 从 80 年代早期就致力在 AI 领域倡导机器学习方法,研究人类大脑如何发挥作用,应将其应用在机器学习系统的开发。受到大脑的启发,他和其他人提出“人工神经网络”作为机器学习研究的基石。

在计算机科学中,“神经网络”是指由在计算机模拟“神经元”的一层一层组成的系统。这些“神经元”与人类大脑中的神经元相似,通过加权连接相互影响,并通过改变连接上的权重,可以改变神经网络执行的计算,三位大牛提出使用多层构建深层网络的重要性,因此也称为“深度学习”。

三位大牛 30 年努力所奠定的概念基础和工程进步,受惠于 GPU、计算机的普及以及对大量数据集而取得显著进展,Yann LeCun 在 Geoffrey Hinton 的指导下进行博士后工作,Yann LeCun 和 Yoshua Bengio 在 90 年代初都任职于贝尔实验室,尽管没有一起工作,他们的研究也激起了相互影响。

他们三人持续探索机器学习与神经科学和认知科学的交叉,特别是他们共同参与 CIFAR 的机器和大脑学习计划。

这一次 ACM 选择深度学习理论,在深度学习领域又选择了这三位先驱,其实有更深层的意义。因为,在深度学习和神经网络领域具有突出贡献的绝不止这三位学者,而他们并称为三巨头的原因,也并不只是因为他们投入研究的时间长达40年,更是因为他们始终保有对神经网络的兴趣,在他们的名字广为世人所知的几十年时间里,他们甘于用掉人生大部份的时间坐冷板凳做研究,才推动了神经网络走向复兴。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4574

    浏览量

    98753
  • 图灵
    +关注

    关注

    1

    文章

    36

    浏览量

    9626

原文标题:“三巨头”齐获图灵奖!深度神经网络成为计算的关键~

文章出处:【微信号:siid_inno,微信公众号:深圳创新设计研究院】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    FPGA在深度学习应用中或将取代GPU

    、笔记本电脑或机架式服务器上训练神经网络时,这不是什么大问题。但是,许多部署深度学习模型的环境对 GPU 并不友好,比如自动驾驶汽车、工厂、机器人和许多智慧城市环境,在这些环境中硬件必
    发表于 03-21 15:19

    详解深度学习神经网络与卷积神经网络的应用

    在如今的网络时代,错综复杂的大数据和网络环境,让传统信息处理理论、人工智能与人工神经网络都面临巨大的挑战。近些年,深度学习逐渐走进人们的视线
    的头像 发表于 01-11 10:51 729次阅读
    详解<b class='flag-5'>深度</b><b class='flag-5'>学习</b>、<b class='flag-5'>神经网络</b>与卷积<b class='flag-5'>神经网络</b>的应用

    浅析深度神经网络压缩与加速技术

    深度神经网络深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似
    的头像 发表于 10-11 09:14 395次阅读
    浅析<b class='flag-5'>深度</b><b class='flag-5'>神经网络</b>压缩与加速技术

    10分钟快速了解神经网络(Neural Networks)

    神经网络深度学习算法的基本构建模块。神经网络是一种机器学习算法,旨在模拟人脑的行为。它由相互连
    的头像 发表于 09-21 08:30 779次阅读
    10分钟快速了解<b class='flag-5'>神经网络</b>(Neural Networks)

    深度学习神经网络架构解析

    感知器是所有神经网络中最基本的,也是更复杂的神经网络的基本组成部分。它只连接一个输入神经元和一个输出神经元。
    发表于 08-31 16:55 852次阅读
    <b class='flag-5'>深度</b><b class='flag-5'>学习</b>的<b class='flag-5'>神经网络</b>架构解析

    卷积神经网络深度神经网络的优缺点 卷积神经网络深度神经网络的区别

    深度神经网络是一种基于神经网络机器学习算法,其主要特点是由多层神经元构成,可以根据数据自动调整
    发表于 08-21 17:07 2347次阅读

    基于传感器和深度学习神经网络的血压监测系统

    这项研究开发了一款基于保形(conformal)柔性应变传感器阵列和深度学习神经网络的智能血压和心功能监测系统。该传感器具有高灵敏度、高线性度、快速响应与恢复、高各向同性等多种优点。
    发表于 08-20 09:53 577次阅读
    基于传感器和<b class='flag-5'>深度</b><b class='flag-5'>学习</b><b class='flag-5'>神经网络</b>的血压监测系统

    卷积神经网络原理:卷积神经网络模型和卷积神经网络算法

    卷积神经网络原理:卷积神经网络模型和卷积神经网络算法 卷积神经网络(Convolutional Neural Network,CNN)是一种基于深度
    的头像 发表于 08-17 16:30 921次阅读

    什么是深度学习算法?深度学习算法的应用

    。 在深度学习中,使用了一些快速的算法,比如卷积神经网络以及深度神经网络,这些算法在大量数据处理和图像识别上面有着非常重要的作用。
    的头像 发表于 08-17 16:03 1485次阅读

    深度学习基本概念

    深度学习基本概念  深度学习是人工智能(AI)领域的一个重要分支,它模仿人类神经系统的工作方式,使用大量数据训练
    的头像 发表于 08-17 16:02 1162次阅读

    AI、机器学习深度学习的区别及应用

    深度学习神经网络的区别在于隐藏层的深度。一般来说,神经网络的隐藏层要比实现深度
    发表于 07-28 10:44 328次阅读
    AI、<b class='flag-5'>机器</b><b class='flag-5'>学习</b>和<b class='flag-5'>深度</b><b class='flag-5'>学习</b>的区别及应用

    MATLAB深度学习简介电子书

    深度学习机器学习的一个类型,该类型的模型直接从图像、文本或声音中学习执行分类任务。通常使用神经网络
    发表于 05-29 09:16 1次下载

    为什么深度学习是非参数的?

    今天我想要与大家分享的是深度神经网络的工作方式,以及深度神经与“传统”机器学习模型的不同之处。
    的头像 发表于 05-25 15:13 294次阅读
    为什么<b class='flag-5'>深度</b><b class='flag-5'>学习</b>是非参数的?

    浅析三种主流深度神经网络

    来源:青榴实验室1、引子深度神经网络(DNNs)最近在图像分类或语音识别等复杂机器学习任务中表现出的优异性能令人印象深刻。在本文中,我们将了解深度
    的头像 发表于 05-17 09:59 1089次阅读
    浅析三种主流<b class='flag-5'>深度</b><b class='flag-5'>神经网络</b>

    浅析三种主流深度神经网络

    来源:青榴实验室 1、引子 深度神经网络(DNNs)最近在图像分类或语音识别等复杂机器学习任务中表现出的优异性能令人印象深刻。 在本文中,我们将了解
    的头像 发表于 05-15 14:20 612次阅读
    浅析三种主流<b class='flag-5'>深度</b><b class='flag-5'>神经网络</b>