0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

人工智能深度学习的成功

汽车玩家 来源:今日头条 作者:爱生活爱快乐爱自 2020-04-02 09:20 次阅读

在过去的十年中,围绕人工智能的突破,投资和企业家活动的爆炸式增长完全由深度学习驱动,深度学习是一种复杂的统计分析技术,用于发现大量数据中的隐藏模式。1955年创造的一个术语(人工智能)被应用到(或错误地应用到了)深度学习,这是一种训练计算机执行某些任务的方法的更高级版本- 机器学习,这个术语是在1959年创造的。

深度学习的最新成功是由于大量数据(大数据)的可用性增加以及图形处理单元(GPU)的出现,显着增加了用于训练计算机的数据的广度和深度,并减少了所需的时间用于训练深度学习算法

“大数据”一词最早出现在1997年10月由Michael Cox和David Ellsworth撰写的计算机科学文献中,该文章发表在IEEE第八届可视化会议论文集中,“ 针对核心外可视化的应用程序控制的需求分页 ” 。他们写道:“可视化给计算机系统带来了一个有趣的挑战:数据集通常很大,这给主内存,本地磁盘甚至远程磁盘的容量增加了负担。我们称此为大数据问题 。当数据集不能容纳在主存储器(核心)中,或者甚至不能容纳在本地磁盘中时,最常见的解决方案是获取更多资源。”该术语在学术界之外也曾使用过。

SGI的创始人吉姆·克拉克(Jim Clark)于1974年在“计算机图形之父”伊万·萨瑟兰(Ivan Sutherland)的指导下在犹他大学完成了博士学位论文。克拉克后来创立了Netscape Communications,其成功的网络浏览器和1995年的IPO引发了“互联网热潮”。蒂姆·伯纳斯·李(Tim Berners-Lee)在1989年发明了网络,并成功地使全世界数十亿人成为数字数据的消费者和创造者,这为数十亿广泛共享的数字图像(例如,将猫的照片识别为一只猫”)。

2007年, 普林斯顿大学的计算机科学家Fei-Fei Li和她的同事开始组装ImageNet,ImageNet是一个带注释的图像的大型数据库,旨在帮助视觉对象识别软件研究。五年后,即2012年10月,由多伦多大学研究人员设计的深度学习人工神经网络在ImageNet大规模视觉识别挑战赛中的错误率仅达到16%,大大超过了25%的错误率。一年前最好的进入,预示着“人工智能”的兴起。

大数据确实很大。 RJT Morris和BJ Truskowski在“ 存储系统的发展 ”一书中说,在1996年,数字存储在存储数据方面比在纸上更具成本效益。在2002年,数字信息存储首次超过了非数字存储。根据马丁·希尔伯特(Martin Hilbert)和普里西拉·洛佩兹(Priscila Lopez)的“世界存储,通信和计算信息的技术能力 ”,在1986年至2007年之间,世界的信息存储能力以每年25%的复合年增长率增长。他们还估计, 1986年,所有存储容量中有99.2%是模拟存储,但在2007年,有94%的存储容量是数字存储,这完全颠倒了角色。

2000年10月,加州大学伯克利分校的Peter Lyman和Hal Varian发表了“ 多少信息?”,这是第一个以计算机存储量来量化世界上每年创建的新信息和原始信息(不计算副本)总量的综合研究。1999年,全世界产生了1.5艾字节的原始数据。2007年3月,John Gantz,David Reinsel和IDC的其他研究人员发布 了第一项研究, 以估计和预测每年创建和复制的数字数据的数量-2006年为161艾字节,据估计,该数字将增加六倍,达到988艾字节。 2010年,或每18个月翻一番。

信息爆炸(根据牛津英语词典的说法,该术语在1941年首次使用)已经变成了大型数字数据爆炸。但是,可用数据的数量只是使深度学习成功的两个催化剂之一。另一个是GPU。

虽然深度学习算法的开发及其实际应用在1980年代和1990年代稳步发展,但它们受到计算机能力不足的限制。1986年10月,David Rumelhart,Geoffrey Hinton和Ronald Williams出版了“ 通过反向传播错误学习表示法 ”,其中描述了“一种新的学习过程,即反向传播,用于神经元样单元网络,”是一个概念性突破。在深度学习的发展中。三年后,Yann LeCun和AT&T贝尔实验室的其他研究人员成功地应用了反向传播算法到多层神经网络,识别手写的邮政编码。但是鉴于当时的硬件限制,培训网络大约花了3天的时间(与以前的工作相比有很大的改进)。

大数据诞生的计算机图形学得以拯救。到1990年代,实时3D图形在街机,计算机和游戏机游戏中变得越来越普遍,导致对硬件加速3D图形的需求增加。索尼在1994年推出家用视频游戏机PS1时,首先将GPU一词称为 “几何处理单元”。

视频游戏渲染需要快速并行执行许多操作。图形卡具有较高的并行度和较高的内存带宽,但相对于传统CPU而言,其时钟速度较低且分支能力较低。碰巧,在人工神经网络上运行的深度学习算法需要类似的特性-并行性,高内存带宽,无分支。

到2000年代末,许多研究人员已经证明了GPU在深度学习(特别是对于人工神经网络训练)中的实用性。由新的编程语言(如NVIDIA的CUDA)支持的通用GPU已应用于各种深度学习任务。此类应用程序中最明显的是上述2012年ImageNet挑战赛的冠军。

2020年3月18日,计算机技术协会(ACM)将Patrick M.(Pat)Hanrahan和Edwin E.(Ed)Catmull提名为2019 ACM AM图灵奖的获得者,以表彰其对3D计算机图形学的基本贡献,以及这些技术对电影制作和其他应用中的计算机生成图像(CGI)产生了革命性的影响。

根据ACM新闻稿,今天,“ 3-D计算机动画电影代表了在价值1380亿美元的全球电影行业中广受欢迎的类型。3-D计算机图像对于蓬勃发展的视频游戏行业以及新兴的虚拟现实和增强现实领域也至关重要。Catmull和Hanrahan做出了开创性的技术贡献,这些贡献仍然是当今CGI图像开发方式不可或缺的部分。此外,他们对编程图形处理单元(GPU)的见解不仅对计算机图形学产生了影响,还影响了包括数据中心管理和人工智能在内的各个领域。”

像吉姆·克拉克(Jim Clark)一样,卡特姆(Catmull)是伊万·萨瑟兰(Ivan Sutherland)的学生,并于1974年获得犹他大学的博士学位。正如罗伯特·里夫林(Robert Rivlin)在1986年的著作《算法图像:计算机时代的图形视觉》中所写的那样,“现代计算机中几乎每个有影响力的人图形社区要么通过了犹他大学,要么以某种方式与之接触。”

在2010年对 Pat Hanrahan的采访中,Catmull描述了U U工作环境:

“戴夫·埃文斯(Dave Evans)是该系主任,伊万(Ivan)在教书,但他们的公司埃文斯(Evans)和萨瑟兰(Sutherland)花费了所有多余的时间。这些学生几乎是独立的,这是我真正的肯定,因为学生必须自己做一些事情。我们期望创造原创作品。我们处于前沿,我们的工作是扩展它。他们基本上说:“您可以每隔一段时间与我们联系,我们将与您联系,但我们将关闭这家公司。”

我认为效果很好!它建立了相互支持,共同工作的环境。”

在同一讨论的稍后部分,Hanrahan说:

“当我第一次对研究生院的图形感兴趣时,我听说过要制作完整的计算机生成图片的要求。当时,我对人工智能非常感兴趣,因为人工智能具有图灵测试和模仿思维的想法。我认为制作计算机生成图片的想法是对人的思维进行建模的先驱,或者至少与之类似,因为您必须对整个虚拟世界进行建模,并且必须在该世界中拥有人-如果虚拟世界和其中的人们看起来并不聪明,那么该世界将无法通过图灵测试,因此看起来似乎不太合理。

我想我很聪明,以为我们一生中实际上无法建立人类智力模型。因此,我对图形感兴趣的原因之一是我认为它具有良好的长期职业发展潜力。”

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人工智能
    +关注

    关注

    1776

    文章

    43796

    浏览量

    230570
  • 深度学习
    +关注

    关注

    73

    文章

    5235

    浏览量

    119893
收藏 人收藏

    评论

    相关推荐

    5G智能物联网课程之Aidlux下人工智能开发

    /27210.html *附件:5G AIoT技术实践入门与探索_20240416.pdf 人工智能 初学者完整学习流程实现手写数字识别案例 28分55秒 https://t.elecfans.com/v
    发表于 04-01 10:40

    嵌入式人工智能的就业方向有哪些?

    嵌入式人工智能的就业方向有哪些? 在新一轮科技革命与产业变革的时代背景下,嵌入式人工智能成为国家新型基础建设与传统产业升级的核心驱动力。同时在此背景驱动下,众多名企也纷纷在嵌入式人工智能领域布局
    发表于 02-26 10:17

    深度学习人工智能中的 8 种常见应用

    深度学习简介深度学习人工智能(AI)的一个分支,它教神经网络学习和推理。近年来,它解决复杂问题
    的头像 发表于 12-01 08:27 947次阅读
    <b class='flag-5'>深度</b><b class='flag-5'>学习</b>在<b class='flag-5'>人工智能</b>中的 8 种常见应用

    ai人工智能机器人

    随着时间的推移,人工智能的发展越来越成熟,智能时代也离人们越来越近,近几年人工智能越来越火爆,人工智能的应用已经开始渗透到各行各业,与生活交融,成为人们无法拒绝,无法失去的一个重要存在
    发表于 09-21 11:09

    《通用人工智能:初心与未来》-试读报告

    、社交、想象力、创造力、感知力,这是无法用逻辑和推理去定义和构造的。人工智能路途遥远,远远还不到与人类竞争的程度,而且也不会反生的。与其胡思乱想,不如好好学习发展人工智能,让社会的生产力继续提高,让
    发表于 09-18 10:02

    人工智能就业前景如何

    深度学习深度学习是目前人工智能技术发展的主要方向,其基于神经网络的机器学习算法,可以实现对大量
    的头像 发表于 08-13 10:36 929次阅读

    人工智能需要学习什么

    和层次,分析人工智能需要学习的内容。 1. 数据学习 人工智能最根本的就是数据,只有通过数据的学习和处理,才能让机器更
    的头像 发表于 08-12 17:12 631次阅读

    人工智能怎么自学

    呢?” 这篇文章将分享一些自学人工智能的建议,帮助有兴趣学习人工智能的读者们快速入门。 首先,了解人工智能的基础知识和概念是非常重要的,这样就可以理解
    的头像 发表于 08-12 16:58 637次阅读

    如何学习人工智能

    如何学习人工智能 人工智能(Artificial Intelligence,AI)是一种利用计算机模拟人类智能的科技。它涉及到多个学科的交叉,如计算机科学、数学、哲学、心理学等,是目前
    的头像 发表于 08-12 16:45 914次阅读

    怎么学习人工智能

    怎么学习人工智能 人工智能是当今最热门的领域之一,因其在工业、商业、医疗和其他行业中的应用而广受欢迎。学习人工智能可以带来许多好处,例如深入
    的头像 发表于 08-12 16:43 725次阅读

    人工智能学习什么

    挖掘等多个方面的知识内容。人工智能是一个快速发展的领域,从最初的符号推理到当前的深度学习技术,涉及到的知识面非常广泛。 人工智能学习的内容主
    的头像 发表于 08-12 16:36 964次阅读

    人工智能怎么学习

    ,人们对人工智能学习和应用也越来越感兴趣。那么,人工智能怎么学呢?本文将为大家介绍一些学习人工智能的方法和技巧。 一、了解
    的头像 发表于 08-12 16:31 1070次阅读

    AI 人工智能的未来在哪?

    人工智能、AI智能大模型已经孵化;繁衍过程将突飞猛进,ChatGPT已经上线。 世界首富马斯克认为AI对人类是一种威胁;谷歌前CEO施密特认为AI和机器学习对人类有很大益处。 每个国家对核武器的运用有两面性,可造可控;但AI
    发表于 06-27 10:48

    【书籍评测活动NO.16】 通用人工智能:初心与未来

    之后的达特茅斯研讨会开始,用机器来模仿人类学习及其他方面的智能,即实现“人工智能”(Artificial Intelligence,AI)便成为计算机领域持续的研究热点。时至今日,以深度
    发表于 06-21 14:41

    人工智能深度学习的框架简述

    深度学习框架是用于开发和运行人工智能算法的平台,它为软件人员开发人工智能提供了模块化的基础,一般提供数据输人、编写神经网络模型、训练模型、硬件驱动和部署等多种功能。
    的头像 发表于 05-16 10:07 1400次阅读
    <b class='flag-5'>人工智能</b><b class='flag-5'>深度</b><b class='flag-5'>学习</b>的框架简述