0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

浅谈深度神经网络发展历程

mK5P_AItists 来源:未知 作者:胡薇 2018-11-26 11:16 次阅读

2018年11月18日下午,计算机科学与技术学部主任、人工智能学院焦李成教授在成都参加了由中国人工智能学会主办的人工智能大讲堂并做特邀报告,焦李成教授在报告中回顾了深度神经网络发展历程,阐述了复杂影像的智能解译与识别问题,并激励大家在人工智能领域勇攀学术高峰,以下为报告记录。

焦李成:很高兴有这个机会跟大家一起交流。今天的演讲是命题作文,人工智能学会今年开始做人工智能大讲堂,学会理事会将其作为重要的品牌在做,以前是到各个学校去做,现在拿到高峰论坛来做是第一次。上午的也是张院长的命题作文,一定要谈人工智能,人才的培养,我觉得很高兴有这个机会,跟大家一起交流。

一个名字,深度神经网络,两句话大家记住了,李院士讲的是深度学习不是万能的,但是离开深度学习是万万不能的。这件事情作为我们内行人来讲,今年讲的也比较多,内行人也很自然能理解,给我们行业内讲是不讲这个事的,但是给一般的听众讲,包括给政府机关、百千万人才、长江杰青大讲堂都讲了这句话,这句话的意思是只要是能够结构化的、只要是能够有规则的、只要你是有数据的,那么这个问题,你不要企图和人工智能去拼。围棋就是这样,象棋也是这样,它们是封闭、完备的,在这些问题上你算不过人工智能,没有它算得快,同时这些规则在短时间内的实施性,人做不到,人有感情,机器没有感情,它下错一步,你说它怎么这么臭,它并不正视你,而是继续下,人工智能一秒钟算三千步,三万步,而人看三十步已经很伟大了。

这两个视频,一个是我学生做的,西安英卓未来公寓,另外一个是旷视做的。英卓未来公寓从房门开启一直到最后的离开都是通过智能完成的。当然你见不着人,但是人通过智能给了你最好的服务。所以他们开了第四家酒店,让大众能够体验到智能家居的生活、享受到智能的品质。旷视在做人脸识别这件事情,最早做这个事是商汤的Mark,我的学生、也是汤晓鸥老师的第一个学生,他做了20年的人脸识别,20年的坚守厚积薄发,去年的7月份到9月份,三个月内机场、高铁、银行全都用了他的技术。

大家都知道,这是波士顿动力狗。大家看,它的三级跳,人都不一定能够做得到,就是这么灵活,整个机器人经过这么几代以后,智能的行为、协调、所有的动作做的很棒,我觉得对我们人类是一种挑战。在反恐、排爆、探险,救险这些领域当中,这些技术是非常有用且必要的。我的学生做了一款为渐冻人服务的眼球控制智能出行及家居生活的轮椅系统,做了三代,正好有一位渐冻人“泰山英雄”,他的腿动不了,手也不能完全控制,但他靠着手登上了泰山、华山,所以公众叫他“泰山英雄”,有媒体联系到了我们,那么我们将赠送一台智能轮椅给他,人工智能确实能够改变我们人在某些情况下的不方便,我个人感觉还是一件非常有意义的事。这套轮椅系统能让渐冻人及其他肌肉或骨骼受损的人不仅在室外能自己走,跟刚才说的智能公寓结合起来,通过眼睛的控制,能完成从开门到开关灯、开关窗帘、洗澡间等所有的智能生活起居。在杭州的一个比赛中,这套系统也很轰动,得到了大家的认可,拿了一个奖项。当然回来了我们认识了“泰山英雄”,能让他有了适合他的轮椅、能切切实实的帮到渐冻人,这是更重要的,我和我的学生都感到非常高兴。

大家可能看不见,这是星载的,就是照相机和雷达装在卫星上然后拍摄地面的视频,船在动、高速上面的车在动、然后机场的飞机在起飞,这是卫星的视频。卫星视频数据量非常大也非常高维,我们同时做到了在卫星视频数据量级上的舰船、飞机、车辆的监测、跟踪和分类,就是你传送多少、运动速度多少、未知的信息全部能够同时的实时识别出来。

将来首先失业的有可能是播音员,为什么呢?现在的语音合成技术完全可以和董卿一样、和李梓萌一样,听上去有感情,但是声音是合成的。(视频)这样的话就可以全天候的进行播音。刚才举的波士顿动力、渐冻人的轮椅和智能工艺的结合、播音员的语音合成等例子都是活生生正在发生的。所以教育部也很重视人工智能,教育部各个专家组+咨询组31个人,整个分布在十几个高校。

其实我国的人工智能发展计划归结为三步走,四大任务,五大智能技术方向。三步走我们怎么跟、四大任务我们怎么去完成,还有五大方向我们在科研人才的培养上怎样去进行匹配,这是我们需要考虑的问题。我认为可以从四个部分考虑,一是基础理论,二是共性技术,第三是基础支撑平台,第四是智能化基础设施,智能基础设施建设怎么和物联网云计算的基础设施的建设相互协调起来,是我们需要思考的。

工信部的《新一代人工智能产业发展三年行动计划》大家应该去看,目标很清楚,产品要出来,核心技术要突破,实际上是为整个智能社会和2025智能制造做准备,这件事大家一定要去做,要思考互联网、大数据、人工智能三个支撑体系和基础设施怎么样相互协同,相互协调,共同促进,你跟不上,你一定会落后。人工智能对全社会来讲是共性的技术、普适的技术,对教育来讲同样是共性的、普适的课程,这一点我们现在都无法去想象,人工智能对于教育或者是智慧教育带来的挑战,我希望大家一定要去关注。

高校的行动计划,今年教育部连发五文,时间规划涉及到2020年、2025年、2030年,内容涉及创新体系,人才培养体系,成果转化和示范应用的基地,它的目标是想干什么?对于高校教师,写写论文,带带学生已经不够了。人工智能的方向有什么呢?李院士讲了,这是经过多少次争论后列出来的主要方向,6到8个,要根据各个不同的学校、不同的单位,不同的特色去建相应的方向,一定要有特色而不能同质化。

围绕基础理论的研究基金委是有布局的,也经过了专家组充分的论证。人工智能的理论研究从56年到现在,一直在争论也一直在斗争,但不管你是三起三落还是八起八落,搞学术的人都得搞。别人不做的时候我们在做,别人不待见的时候我们也在做,高潮来的时候,该怎么样还怎么样,做学术的人就要初心不改做自己的事。所以人工智能从诞生之初到现在,从需要模拟人的基本智能,推理、知识、规划、学习、交流、感知到移动和操作物体的能力,始终在延伸,始终在往前走,水平在不断的去提高。人工智能不是人的智能,而是希望能够像人那样去思考,像自然演化那样去学习和进化。另外,进化计算和自然计算结合起来有一些挑战和问题,我觉得这两个之间的概括需要有人去做,我已经讲过几回,今天先不讲,未来希望有机会也跟大家聊一聊进化计算和自然计算的结合。

智能的两条道,学习和感知、优化和识别的能力什么时候都需要、什么时候都是智能的主体,怎么样能够把这两个结合起来?我认为这个时代说对了一部分,这部分就是可以用梯度算法去做,另外一部分是,进化计算在结构优化上一定是比BP强的,梯度从哪儿求这件事情我觉得还是值得思考,无法获得梯度怎么办?人工智能从开始的符号、联结、行为、贝叶斯到类推,人怎么认知、自然怎么学习演化、人是怎么想的、怎么看的、怎么听的、怎么说的、怎么走的、怎么动的……神经网络都做到了吗?我想说的是,从专家系统到中间基于特征的,再到声音、语言,文字、图像以及现在的感知行动结合起来,这件事上是值得我们去走的。

我个人认为人工智能四大挑战,无教师的学习何时能来?无监督的学习深度何时能做?机器人能够像人一样去感知和理解这个世界吗?机器的情感在哪里?前面说的这些都是网络范式去做的,而人是在环境、场景中、运动中去感知,首先是感知这个世界,然后理解这个世界,之后去指挥自己的行为,最后再做一系列的事情。所以最终人工智能要对环境、对场景、对情感去感知和理解,形成动力系统。更进一步,人工智能的发展最重要的还是人,这个时候带来的伦理、法律、道德、宗教等等深刻的社会问题我们怎么去思考它、怎么去理解它以及怎么去面对它。

美国白宫成立了人工智能研究中心,这是绝无仅有的,MIT结合AI成立新的计算机学院。这件事情我觉得对我们整个改革学校的教育,改革下一代的教育都有影响,我们要思考这意味着什么。人工智能改造了计算机的教育,斯坦福始终在创新引领的前沿,我们要思考他们做什么事情,我们要做以人为中心的人工智能的教育和改革。这件事情上,我们教育部的官员和教育工作者都要去好好学习,更要去看别人怎么去做。

所以说到对人工智能的战略投资,包括对社会的变革、长期的革命,MIT这件事情拿了10亿美金,CMU创办了世界上第一个人工智能本科专业,我知道在纽约办了一个艺术学院与人工智能的结合,他们用6.4亿美金,专门办了一个艺术学院。我们不能只知道人家做了这件事,更要看这件事的内容是什么,要眼光面向全世界,要看清楚怎么去做,我们要去引领。我就觉得这三件事情都是今年的,都是刚刚发生的事,所以这件事情上,我觉得美国还是清醒的,站在这个制高点,不能说我们人工智能计划已经很完美。当然国内的布局也很快,这件事情应该说叫做“顺势而为,趁势而上”,但我们千万不要说吃了一碗面条,我们脑子就很聪明,好像不是那么回事,要懂得做全局优化。

我想再强调一下,人工智能、机器学习和深度学习我们内行人应该要搞清楚。现在当然说没有比深度学习更有效的机器学习的办法,人工智能当然要去做事,肯定得靠深度学习,因为你面对的是黑箱、不完全的数据,而且宏观上是大数据,微观上对问题来讲又是小样本。所以对于深度学习,我们内行人离不开他但也不要起哄。在传统的体系结构下,机器学习和深度学习是什么?这个对话不在一个频道上。

有监督、无监督、半监督和强化的算法怎么用要看是什么情况,我们自己做这个内行的人,千万不要说你那个能干什么,这个能干什么,用的场合和问题不一样,你可能在不同的场合,不同的任务,不同的问题需要用不同的方法去解决。我现在就害怕大家陷入一个坑,我们再回到神经网络,最早1990年我出的书里神经网络的四个范式,反馈网络就是现在大家通常讲的网络,或者是递归反馈的。还有自组织网,以及没有体现的完全无监督的学习。

大数据就讲一句,我们所有处理的问题、深度学习的方法,机器学习的方法都一定是面向大数据的问题,但是单个问题拿到的又只是小样本,一定得记住这一点,这个意义上来讲,是大数据小样本再加学习,这件事情上我们一定要把它结合起来做。面对大数据,面对海量数据,面对结构和非结构的数据大部分深度神经网络是不可解释的、是黑箱的。大数据处理的很多方法,同样是不可解释的,因为我们现在处理这些数据时只讲大、只讲海,但处理数据其实也是物理过程,应当像人的认知过程那样是有生物意义和物理意义的,这个层面上来讲,你把那两个意义丢掉了,拿一堆数据就玩、算法递归迭代,最后什么都不解释,人的经验、规则哪里去了呢?你没有用上。

我经常讲的,过马路的时候,对面有一个大美女,打了一个手机,还接了一个领导的电话,大车也穿过来了,旁边还有一个小偷跟着你,你怎么处理?肯定保命要紧,先过马路再说,人会分轻重缓急,而且是协同去做。回过头来,我认为最初研究神经网络的几个人是要提的。通过学习的概念,通过学习感知的思想,通过学习优化的思想,这个是神经网络的精髓。然后在这个基础上再去做。中间需要把任务完成得好,就要优化去做这件事情。所以说一定是学习、优化、协同、控制和数据结合的。

我的印象应该是在1988年Lippman的文章,所有神经网络做模式识别边界的分析,边界是那个时候划出来的。大家第一次知道,非线性的问题变得如此简单。那个时候才出来三层神经网络,但三层神经网络可以逼近任意函数,是理论上证明的,不是今天才做的。之后结构的设计、算法的构造,使得方法变得更加有效、实用,离问题更近。以前是数据不够、训练方法欠缺,同时人们的要求也没有那么迫切,硬件的运行也没有那么好,而现在这四个条件,大概相对30年前已经有了巨大的改善,我第一次看神经网络大概是83年,那个时候在成都听加州大学伯克利分校的蔡少棠讲了学一个月,讲的非线性和混沌,那时因为客观条件所限,研究发展不像现在那么迅速,而大数据的出现是应景了,这两者是契合了。这个意义上来讲,在具备了有利客观条件的今天,我们要把问题研究得更透彻,你怎么去进行感知、判断、决策,哪一个是决策者、哪一个是训练层、哪一个是推理层、哪一个是优化层得搞清楚了。非线性的嵌套是有结构的。从简单的特征,到特征的表征,到特征的学习,特征的表征与学习,现在演变成特征的表征学习,神经网络的演化进程是有脉络、有逻辑的。

关于神经网络和专家系统,专家系统三个要点要记住:知识的表示,知识的学习,知识的推理。早期推理知识的办法不多、表征的框架不多、手段不多。神经网络给了大家思想和方法,我希望大家记住对神经网络真正有贡献的是这些人,43年Hebb规则和MP模型。1962年Widrow和他的学生提出了LMS。第一台PC机是他发明的,其算法奠定了自适应信号处理和自适应控制技术基础。这个是俄罗斯籍的斯坦福的教授,这个人记住,其貌不扬,我觉得大家都应该记住他Werbos,BP算法是他提出来的,1974年在哈佛大学拿博士学位的时候,就发表了一篇论文就没有论文了,但是博士学位是拿到了,真正的BP算法是他提出来的,使三层神经网络可学习。整个大概十几年的时间很红火,而且是自己也做过世界神经网络学会的主席和先驱,加州工学院Hopfield,三篇文章奠定了他的基础。另外一个记住一个C.Mead,美国的三院院士,世界第一块神经网络的芯片是他做的,这个人在集成电路一直是明星,大家一定要记住这件事情,神经网络不仅是今天。这个是芬兰皇家科学院的院长T.Kohonen教授,他来过很多回,提出了自组织特征映射网。径向基神经网络出自Billing手,因为他是用基函数来做这件事情,做控制的人全部是用的,很高效。支撑向量机,这些都是神经网络模型,而且都是学习机,大家不要认为是完全跟神经网络没有关系,只是说那一阵跟神经网络“划清界限”。浅层到深层的学习,大家要明白,本质性上改变的是什么?你说前面的网络浅,那在哪里深呢?规模深、特征深、还是机理深?还是怎么做的呢?我说理解深度的时候,我们要去做深在什么地方,对数据的匹配在哪些上面是做了本质性的突破和改变,这件事情上我们一定要去做的。

我还是把他们列在一起,你记住所谓深度大咖的时候,别忘了上面这些人,这些人是他们的祖师爷。

中国神经网络的发展也是有一个过程的。

我们一直不说,但是路一直在走。简单的数据到了具体的对象,到了图像,从小波变换到了小波网络,从伸缩平移到了方向,到了图像旋转变换。所以说包括从地上到了天上,到了空中机载的。对象在变,需求在变,神经网络也好,机器学习也好,方法也在不断的往前走。所以我们是把这个结合起来在走。刚才为什么说我希望讲一下这些道理,因为进化计算的第一篇文章,不叫人工智能,是优化和学习在走,包括免疫的学习优化,包括我们用到多目标上面去做,包括做协同的、量子的,而且用到了真正目标的识别上,我们都做了。这个过程我们回过头来说,对于人工智能人才的培养,为什么我们心里面不太慌,经过了十四五年的实践和培养,反正我们也出了这些书,不敢说水平有多高,但是研究生,本科的教材是有参考的,我自己写的,我也在不断的更新。我们几十本书,应了人才培养教材之需,去年就包括做量子的,光学的,红外的,包括到认知的,稀疏的,一直到高分辨遥感,老先生一定要改成雷达图像,我们一路走过来,今年完成的是量子计算,计算智能,简明人工智能等七八本,大概也有好几十万字。计算智能还有模式识别,反正都是在50、60万字以上,还有自然计算的前沿,就是相当于深度学习的前沿,还有一个大数据智能挖掘的。

从第一代到第二代,一直到现在的第三代神经网络,变化在什么地方,本质在什么地方,做这件事情,我们一定要去。第一个是卷积神经网络,我理解的跟别人理解的卷积神经网络不一样,很简单就是内积。然后在电路里面,在学习信息里面,很简单,怎么走?一卷不就出来了嘛,卷积的概念大家知道是从数字信号处理出来的概念,物理概念和描述很清楚。其实最开始的时候,卷积也不火,不像现在牛哄哄的。

递归神经网络,一定有联想记忆的。其实模式识别,以前叫做联想记忆,联想记忆学习优化。这四件事情,要是在神经网络里实现了,你的功能就比单纯的卷积去做要强大得多。所以递归同样是可以做这件事情。

深度置信网提供的思想一定要记住,我能够通过概率的判断做某件事情。我通过概率的判断和生成,能够使这个神经网络的构造性设计更加合理和有效。这是置信网的贡献。其实现在更热的是贝叶斯网络学习。贝叶斯的分布。

分布完了以后,参数少。接下来就是可学习,这个参数我们可以学出来,学习关键的参数,那么这个分布就找到了,或者优化的分布就找到了。实际上就是做了一个分布的估计。贝叶斯的描述、表征,估计和深度结合起来,这是贝叶斯网络火起来最重要的原因。很自然,大家好不容易抓住一个贝叶斯分布,而且可以去做。深度可以给你学,何乐而不为,大家一定要找到一个结合点!

才能做这件事情。

生成对抗网大家觉得是突破,相对传统的网络来讲。多了一个判别器。所以这个是不一样,而且是跟概率结合起来,大家觉得一人搞了一种。我这么告诉你,有了卷积网,有了对抗网,你还要有新模型,千万不要觉得谁好用,谁不好用,这就是深度网络的全部。那是你本事不高,你有本事弄一个深度神经网络模型出来,联想记忆,学习,优化还要到后面的推理,你把这些功能实现了,就像人一样,你的功能就强大了。但是现在,为什么大家关注核心,是把感知和决策结合起来,通过概率,态势,估计和学习是有用的。这应该是非常有用的。

两件事情,浅层模块+堆栈理念就等于深度网络。梯度不好的时候,结合一下,混合一下去做。都是不同的选择,也有不同的学习方式,不管怎么样,都是为了提高它的效率,这件事情大家去做,就不讲那么多了。但是,讲大数据。第二个是过拟合。哪一个方法不过拟合。调参,哪一个方法不调参,你说缺乏可解释性,现有的机器学习方法,哪几个可解释,试试看。你不能说他不解释,这个不弄,那个不说,多任务的时候,人人都做不了,大家都在同一个起跑线上,你要勇闯无人区,要做领头雁就做一个算法出来。

现在回想起来,我觉得还是有一些工作,小波SVM网络,用在小样本上,包括ridgelet网络,深度contourlet网络模型等,和利用免疫进行优化学习,量子进化学习,多智能体协同进化学习与多尺度稀疏理论学习框架等。量子的免疫的,我刚才说的是两个学习进化,我们结合起来去做,可并行,可以非线性的表征和编码,这两件事情结合起来,量子优化也是这么去做。不是回到量子的器件,我们不做这事,但是思想是可以学的。免疫优化学,相对传统的,我们多了免疫项,多了引导项,多了容错经验项,那么你的学习优化就不一样,我们做了20万TSP和函数优化,做了千万级的皇后分类,后来我们这些结果,都是最好的结果,后来人们也不跟我们比了。那么你做到了极限了,你试试看。我能做的九个目标的优化问题,那么你去算算,这个东西就难。

我们做了大数据深度学习系统。我跟大家说一个结果,12万×16万的图像,0.5的分辨率,57个G,2766条船,将近300架飞机,整幅图像处理我们在128秒之内全部检测分类出来。

人是怎么做的呢?刚才讲的人看、听、说、触觉,声音连接图像。所有的声音的处理,输入,获取是人脑处理的基础。那么从这个意义上来讲,它的共性是什么。首先,它是稀疏性的,它是可学习的,是有选择的,同时是方向的。这四个是我们感知的基础,这不是我说的,这是生物上证明的,从这个意义上讲,大家光拿一个卷积网,其实没有回过头来想它的生物基础是什么。谁能回答这个问题?或者有多少体现了。

这个也是到现在有将近20年的历程,生物上不断证明这件事情,而且喜欢看牛人,看大咖,一直到现在,证明了大脑中是存在的,所有的这些结果都是有的。

我们的方法做到了吗?我们的深度做到了吗?,我们一代深度神经网络,二代深度神经网络,三代深度神经网络怎么体现人脑做这些事呢?从这个意义上来讲,你怎么去做稀疏感知,稀疏表征和稀疏学习。我们成功研制了国内第一个压缩感知雷达,就是把稀疏感知和稀疏学习这两件事情结合起来。所以说你要观得见,要观得清,辨得明,而且还要理解得了。从这个意义上来讲,不仅仅是场景的感知,而且是目标信息的感和知。昨天两位院士讲的成像的,知才是理解的过程。我刚才讲的模型,多小波也好,都做这件事情。

Wishart深度堆栈网络是我们提出来的,将这种物理特性是和神经网络结合起来,实现的结构网络,我们找到了 Wishart深度堆栈网络。我们做的任务是极化SAR图像分类。同样我们做了Wishart的DBN网络,做到了物理获取的机理,视觉的机理和脑处理的机理和结构的结合,构造了相应的深度神经网络。深度神经网络一定是将物理的、生物的、数学的原理结合起来。当然你要更有效,还要在平台上去实现这件事情。

刘芳教授已经做了很多工作,毕业了很多学生。做了哪件事情?语义深度网络。我们现在都在语法上想对策,考虑了数据之间的关联特性,这是理解数据的基础,是推理决策的基础。也是深度学习必由之路。尤其是在星载的电磁波雷达的摄像机,装在卫星上去做。这件事恰好是把物理的特性和生物的结合起来,我们结合了人是怎么理解的,人是通过语义通过过程,通过数据之间的关联关系,而不仅仅是看数据多和少,要看数据之间的关联特性。我们做到了在线表征,屈嵘老师做的超启发式学习优化,她的工作能够用在医院,车站,工厂。深度神经网络还没有做这件事情,超启发式的学习算法和深度神经网络在哪里?应该是打开现在大数据小样本,人工智能大数据瓶颈问题的一把钥匙,期待大家去努力,有问题向屈教授请教。

这件事情上做到了,表征这件事情做得很好。表征完了,找到了好的基函数。所以表征、滤波,函数和深度学习结合起来,就给出了深度的,张量的滤波,我们团队也在做深度,谁只拿卷积用用,这个稿子论文毕业都不行,出都出不了门,出了北门就是出了国门。学术只有一个标准,那就是国际标准,不存在哈佛和MIT的标准之分。从这个意义上来看,管他大咖,小咖,解决问题就是咖。从某种意义上来讲,误差小,结构要设计得好,能够实现得了,而且还能算得快。这件事情上是我们做深度的基础。

你不是要做嘛,那个算法是要上星上弹,在导弹上,卫星上装的,你载荷要小,怎么办?就要学得快,在线学习就得增量学习。怎么去做?不仅是增量的,而且还能自表征的,把那些经验不断找回来。然后半监督的去学习。我们承担了国家自然基金的重大专项,完成了星载的在线处理就是做的这件事情。

另外一个,是眼睛看的,脑子想的,还有眼睛怎么看的,脑子怎么想,那就是,显著看的,注意看的,选择注意的特征,看这个信息的时候,选择看的,注意看的,稀疏看的,然后脑子再去学它,跟生物结合起来。不管是雷达上还是光学相机上。我们用了变化检测,显著检测,前面讲的所有的模型你去做。有一个核心点,你一定能说出来,你的想法在哪里?你的目标在哪里?你是解决什么样的问题的,你是怎么样去提高的,你的生物意义在哪里,物理意义在哪里,结构上做了哪些变化,这个是怎么匹配的。多示例去做,特点在什么上面呢?不同的传感器获得像不一样,光学的,你的任务是多任务学习,你怎么去学的。

我们做的整个的方法,当时就是比别人的好,所以这个冠军就是我们。这个方法,应该说物理生物、再将深度的思想结合起来,是我们做工作的基本出发点。然后匹配稀疏的,大数据的,小样本的问题。而且能够满足在线的,在轨的大数据的需要。

将学习和优化结合起来,多小波和多尺度的网络模型是我们自己提的。多小波的大概是30年前就提了这样的事情。协同进化优化学习,这是第一个国奖,解决了优化和学习的一些基础性的问题。第二个找到了这些图像,需要表征,找到了这些特征,而且把中间的机理分析了,给出了重构的模型。第三个国奖就是找到了怎么编码,怎么稀疏。而且优化了模型,求解了,一代二代三代做了。那好,这就是这三个国奖。近五年拿的,都在人工智能领域。所以围绕的都是这样的问题去做的。

后来我们还是回过头来,这些东西国外才不给你。这个时候从眼睛,比如说大脑,第一件事情候院长我们做了。全世界第一个把眼睛装到大脑上,类脑别人没有做。而且看和理解同时做,我们全部变成铁块,变成了机箱。

第二个,刚才说的编码,这是探月的相机。只用很小的像素就可以成像,而且不失真。表征学习和应用,做这件事情。后来就是人像到画像,画像到人像,然后再做识别。

警察很厉害,山东的,把这个家伙画出来了。全黑的,画出来了。我们把这个人找出来,章颖莹的冤屈得到了伸张,至少把这个坏家伙找到了。所以我们也是参与其中,应该说为祖国人民也做了一点事情。刚才我说的东西就不说了。应该说XX艘航母回港的时候,我们同时把它全部的像拿到了,视频也做了,把我们最新的算法,装在了我们自己的FPGA上,只有这样才能用。

我们团队,有三个长江学者创新团队,三个国家平台,六个省部级平台,有111国家创新引智基地,我们有一支队伍在做这个事情。联合实验室有十几个。本科专业,05年开招,现在14届,今年招了249名,再加上58名转专业的同学,现在是四个人才能选一个过来,研究生招了240多人。这么多年在人工智能领域做工作,这个专业叫智能科学与技术,是国家级特色专业,我们本科生培养了2千多人,研究生培养了2千多。拿奖拿到手软。拿不到冠军都不愿意说。今年拿了两个国际的冠军。一个就是ECCV的无人机的竞赛。

给大家看一下。ECCV的无人机的竞赛的数据。全部数据主办方给的,他们飞的。这个数据看那个羊在哪里?所有的羊都是一样的。这个是所有的车,遮挡的情况下,无处可逃。这算法全是拿主办方的数据,在他们的机子上运行的。这是多目标的,你有多少目标,多少数据,都可以检测跟踪。我们的无人机,给大家看我们飞的视频。这个是西安南二环实况,检测、跟踪、分类全部是实时的,还能把几何参数找出来。包括人,包括三轮车,所有的分类检测跟踪,有多少给多少,遮挡也能捣腾出来。这是我们学生做的,他们现在做得很起劲的。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4565

    浏览量

    98652
  • 人工智能
    +关注

    关注

    1775

    文章

    43723

    浏览量

    230496

原文标题:焦李成教授谈深度神经网络发展历程

文章出处:【微信号:AItists,微信公众号:人工智能学家】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    详解深度学习、神经网络与卷积神经网络的应用

    在如今的网络时代,错综复杂的大数据和网络环境,让传统信息处理理论、人工智能与人工神经网络都面临巨大的挑战。近些年,深度学习逐渐走进人们的视线,通过
    的头像 发表于 01-11 10:51 699次阅读
    详解<b class='flag-5'>深度</b>学习、<b class='flag-5'>神经网络</b>与卷积<b class='flag-5'>神经网络</b>的应用

    浅析深度神经网络压缩与加速技术

    深度神经网络深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似
    的头像 发表于 10-11 09:14 386次阅读
    浅析<b class='flag-5'>深度</b><b class='flag-5'>神经网络</b>压缩与加速技术

    深度学习的神经网络架构解析

    感知器是所有神经网络中最基本的,也是更复杂的神经网络的基本组成部分。它只连接一个输入神经元和一个输出神经元。
    发表于 08-31 16:55 820次阅读
    <b class='flag-5'>深度</b>学习的<b class='flag-5'>神经网络</b>架构解析

    卷积神经网络深度神经网络的优缺点 卷积神经网络深度神经网络的区别

    深度神经网络是一种基于神经网络的机器学习算法,其主要特点是由多层神经元构成,可以根据数据自动调整神经元之间的权重,从而实现对大规模数据进行预
    发表于 08-21 17:07 2225次阅读

    卷积神经网络的介绍 什么是卷积神经网络算法

    深度学习算法。CNN模型最早被提出是为了处理图像,其模型结构中包含卷积层、池化层和全连接层等关键技术,经过多个卷积层和池化层的处理,CNN可以提取出图像中的特征信息,从而对图像进行分类。 一、卷积神经网络算法 卷积神经网络算法
    的头像 发表于 08-21 16:49 1413次阅读

    卷积神经网络的基本原理 卷积神经网络发展 卷积神经网络三大特点

    卷积神经网络的基本原理 卷积神经网络发展历程 卷积神经网络三大特点  卷积神经网络的基本原理 卷
    的头像 发表于 08-21 16:49 1417次阅读

    卷积神经网络计算公式

    神经网络计算公式 神经网络是一种类似于人脑的神经系统的计算模型,它是一种可以用来进行模式识别、分类、预测等任务的强大工具。在深度学习领域,深度
    的头像 发表于 08-21 16:49 1187次阅读

    卷积神经网络三大特点

    卷积神经网络三大特点  卷积神经网络(Convolutional Neural Network,CNN)是一种深度学习模型,其具有三大特点:局部感知、参数共享和下采样。 一、局部感知 卷积神经
    的头像 发表于 08-21 16:49 3461次阅读

    卷积神经网络的工作原理 卷积神经网络通俗解释

    卷积神经网络的工作原理 卷积神经网络通俗解释  卷积神经网络(Convolutional Neural Network, CNN)是一种众所周知的深度学习算法,是人工智能领域中最受欢迎
    的头像 发表于 08-21 16:49 2697次阅读

    卷积神经网络概述 卷积神经网络的特点 cnn卷积神经网络的优点

    卷积神经网络概述 卷积神经网络的特点 cnn卷积神经网络的优点  卷积神经网络(Convolutional neural network,CNN)是一种基于
    的头像 发表于 08-21 16:41 1913次阅读

    卷积神经网络原理:卷积神经网络模型和卷积神经网络算法

    一。其主要应用领域在计算机视觉和自然语言处理中,最初是由Yann LeCun等人在20世纪80年代末和90年代初提出的。随着近年来计算机硬件性能的提升和深度学习技术的发展,CNN在很多领域取得了重大的进展和应用。 一、卷积神经网络
    的头像 发表于 08-17 16:30 893次阅读

    PyTorch教程10.3之深度递归神经网络

    电子发烧友网站提供《PyTorch教程10.3之深度递归神经网络.pdf》资料免费下载
    发表于 06-05 15:12 0次下载
    PyTorch教程10.3之<b class='flag-5'>深度</b>递归<b class='flag-5'>神经网络</b>

    浅析三种主流深度神经网络

    来源:青榴实验室1、引子深度神经网络(DNNs)最近在图像分类或语音识别等复杂机器学习任务中表现出的优异性能令人印象深刻。在本文中,我们将了解深度神经网络的基础知识和三个最流行
    的头像 发表于 05-17 09:59 1051次阅读
    浅析三种主流<b class='flag-5'>深度</b><b class='flag-5'>神经网络</b>

    浅析三种主流深度神经网络

    来源:青榴实验室 1、引子 深度神经网络(DNNs)最近在图像分类或语音识别等复杂机器学习任务中表现出的优异性能令人印象深刻。 在本文中,我们将了解深度神经网络的基础知识和三个最流行
    的头像 发表于 05-15 14:20 600次阅读
    浅析三种主流<b class='flag-5'>深度</b><b class='flag-5'>神经网络</b>

    三个最流行神经网络

    在本文中,我们将了解深度神经网络的基础知识和三个最流行神经网络:多层神经网络(MLP),卷积神经网络(CNN)和递归
    发表于 05-15 14:19 1172次阅读
    三个最流行<b class='flag-5'>神经网络</b>