0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

深度学习接近芯片算力极限?如何摆脱被淘汰的命运

电子设计 来源:电子设计 作者:电子设计 2020-10-30 08:13 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

关于深度学习,它正在快速接近其极限。虽然事实可能的确如此,但我们仍未能在日常生活中感受到全面部署深度学习的影响。

MIT:算力将探底,算法需改革

MIT 发出警告:深度学习正在接近现有芯片的算力极限,如果不变革算法,深度学习恐难再进步。

根据麻省理工学院,MIT-IBM Watson AI 实验室,Underwood 国际学院和巴西利亚大学的研究人员在最近的研究中发现,持续不断的进步将需要通过改变现有技术或通过尚未发现的新方法来更有效地使用深度学习方法。

目前深度学习的繁荣过度依赖算力的提升,在后摩尔定律时代可能遭遇发展瓶颈,在算法改进上还需多多努力。

深度学习不是偶然的计算代价,而是设计的代价。共同的灵活性使它能够出色地建模各种现象,并且性能优于专家模型,这也使其在计算上的成本大大提高。

研究人员估计,三年的算法改进相当于计算能力提高 10 倍。总体而言,在深度学习的许多领域中,训练模型的进步取决于所使用的计算能力的大幅度提高。另一种可能性是,要改善算法本身可能需要互补地提高计算能力。

在研究过程中,研究人员还对预测进行了推断,以了解达到各种理论基准所需的计算能力以及相关的经济和环境成本。

即使是最乐观的计算,要降低 ImageNet 上的图像分类错误率,也需要进行 10 的五次方以上的计算。

根据多项式和指数模型的预测,通过深度学习获得相应性能基准所需的算力(以 Gflops 为单位),碳排放量和经济成本,最乐观的估计,ImageNet 分类误差要想达到 1%,需要 10^28 Gflops 的算力,这对硬件来说是不小的压力。

爆炸式增长结束,顶部提升有机会

用于深度学习模型的计算能力的爆炸式增长已经结束了,并为各种任务的计算机性能树立了新的基准。但是这些计算限制的可能影响迫使机器学习转向比深度学习更高效的技术。

过去算力的提升归纳了两个原因:

一个是底部的发展,即计算机部件的小型化,其受摩尔定律制约;

另一个是顶部的发展,是上面提到的软件、算法、硬件架构的统称。

在后摩尔定律时代,提升计算性能的方法,虽然底部已经没有太多提升的空间,但顶部还有机会。

在软件层面,可以通过性能工程(performance engineering)提高软件的效率,改变传统软件的开发策略,尽可能缩短软件运行时间,而不是缩短软件开发时间。另外,性能工程还可以根据硬件的情况进行软件定制,如利用并行处理器和矢量单元。

在算法层面,在已有算法上的改进是不均匀的,而且具有偶然性,大量算法进展可能来源于新的问题领域、可扩展性问题、根据硬件定制算法。

在硬件层面,由于摩尔定律的制约,显然需要改进的是硬件的架构,主要问题就是如何简化处理器和利用应用程序的并行性。

通过简化处理器,可以将复杂的处理核替换为晶体管数量需求更少的简单处理核。由此释放出的晶体管预算可重新分配到其他用途上,比如增加并行运行的处理核的数量,这将大幅提升可利用并行性问题的效率。

深度学习时代 AI 模型需规模化扩展

现代 AI 模型需要消耗大量电力,而且对电力的需求正以惊人的速度增长。在深度学习时代,构建一流 AI 模型所需要的计算资源平均每 3.4 个月翻一番。

在当今以深度学习为中心的研究范式当中,AI 的主要进步主要依赖于模型的规模化扩展:数据集更大、模型更大、计算资源更大。

在训练过程中,神经网络需要为每一条数据执行一整套冗长的数学运算(正向传播与反向传播),并以复杂的方式更新模型参数。

在现实环境中部署并运行 AI 模型,所带来的能源消耗量甚至高于训练过程。实际上,神经网络全部算力成本中的 80%到 90%来自推理阶段,而非训练阶段。

因此,数据集规模越大,与之对应的算力与能源需求也在飞速增长。模型中包含的参数量越大,推理阶段所带来的电力需求就越夸张。

深度学习是 AI 核心,但局限性明显

AI 领域需要在根本上做出长期转变。需要退后一步,承认单纯建立越来越庞大的神经网络并不是通往广义智能的正确路径。

深度学习是近年来人工智能技术发展的核心,虽然取得了巨大成功,但它具有明显的局限性。与人类视觉系统相比,深度学习在通用性、灵活性和适应性上要差很多,而在遇到复杂的自然图像时,深度学习可能还会遇到机制性困难。

研究人员表示,目前形式的深度神经网络似乎不太可能是未来建立通用智能机器或理解思维的最佳解决方案,但深度学习的很多机制在未来仍会继续存在。

深度网络还存在巨大挑战,而我们要实现通用人工智能和理解生物视觉系统,就必须克服这些挑战。

虽然深度网络会是解决方案的一部分,但还需要涉及组合原则和因果模型的互补方法,以捕捉数据的基本结构。此外,面对组合性爆炸,需要要再次思考如何训练和评估视觉算法。

每一次人工智能低谷来临之前,都会有科学家夸大和炒作他们创造的潜力,仅仅说他们的算法就能够很好地完成某项任务是不够的。

对大多数问题来说,深度学习并不是正确的解决方法,不要试图为所有的问题寻找通用人工智能解决方案,因为它根本就不存在。

结尾:

深度学习的发展可能已达极限,但其影响还将持续深远。为了避免在“人工智能冬天”中被淘汰的命运,能做的最好的事情就是明确你要解决的问题,并理解其本质;然后,寻找为特定问题提供解决方案的直观路径的方法。

审核编辑 黄昊宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    462

    文章

    53532

    浏览量

    458931
  • 深度学习
    +关注

    关注

    73

    文章

    5590

    浏览量

    123896
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    湘军,让变成生产

    脑极体
    发布于 :2025年11月25日 22:56:58

    什么是AI模组?

    未来,腾视科技将继续深耕AI模组领域,全力推动AI边缘计算行业的深度发展。随着AI技术的不断演进和物联网应用的持续拓展,腾视科技的AI
    的头像 发表于 09-19 15:26 1145次阅读
    什么是AI<b class='flag-5'>算</b><b class='flag-5'>力</b>模组?

    什么是AI模组?

    未来,腾视科技将继续深耕AI模组领域,全力推动AI边缘计算行业的深度发展。随着AI技术的不断演进和物联网应用的持续拓展,腾视科技的AI
    的头像 发表于 09-19 15:25 427次阅读
    什么是AI<b class='flag-5'>算</b><b class='flag-5'>力</b>模组?

    自动驾驶中Transformer大模型会取代深度学习吗?

    持续讨论。特别是在自动驾驶领域,部分厂商开始尝试将多模态大模型(MLLM)引入到感知、规划与决策系统,引发了“传统深度学习是否已过时”的激烈争论。然而,从技术原理、成本、安全需求与
    的头像 发表于 08-13 09:15 3913次阅读
    自动驾驶中Transformer大模型会取代<b class='flag-5'>深度</b><b class='flag-5'>学习</b>吗?

    WAIC 2025:芯片企业竞逐AI新赛道!技术革新突破物理极限

    电子发烧友网报道(文/李弯弯) 2025年世界人工智能大会(WAIC 2025)上,全球芯片企业以“革命”为核心,展开了一场关于技术突破与生态构建的深度交流。从云端超算到端侧智能,
    的头像 发表于 08-04 10:30 8722次阅读
    WAIC 2025:<b class='flag-5'>芯片</b>企业竞逐AI新赛道!技术革新突破<b class='flag-5'>算</b><b class='flag-5'>力</b>物理<b class='flag-5'>极限</b>

    摆脱依赖英伟达!OpenAI首次转向使用谷歌芯片

    地使用非英伟达芯片,更显示出其正在逐步摆脱对英伟达芯片深度依赖,在布局上迈出了重要战略调整
    的头像 发表于 07-02 00:59 7978次阅读

    【「芯片 | 高性能 CPU/GPU/NPU 微架构分析」阅读体验】+NVlink技术从应用到原理

    前言 【「芯片 | 高性能 CPU/GPU/NPU 微架构分析」书中的芯片知识是比较接近当前的顶尖
    发表于 06-18 19:31

    摩尔线程与AI平台AutoDL达成深度合作

    近日,摩尔线程与国内领先的AI平台AutoDL宣布达成深度合作,双方联合推出面向个人开发者的“摩尔线程专区”,首次将国产GPU开放至
    的头像 发表于 05-23 16:10 1424次阅读

    芯片的生态突围与革命

    电子发烧友网报道(文 / 李弯弯)大芯片,即具备强大计算能力的集成电路芯片,主要应用于高性能计算(HPC)、人工智能(AI)、数据中心、自动驾驶等需要海量数据并行计算的场景。随着
    的头像 发表于 04-13 00:02 2601次阅读

    接棒,慧荣科技以主控技术突破AI存储极限

    电子发烧友网报道(文/黄山明)在AI的高速增长下,尤其是以DeepSeek为代表的AI大模型推动存储需求激增,增长倒逼存升级。而存储是AI生态的基础,存将成为未来增长核心已成为
    的头像 发表于 03-19 01:29 2338次阅读
    存<b class='flag-5'>力</b>接棒<b class='flag-5'>算</b><b class='flag-5'>力</b>,慧荣科技以主控技术突破AI存储<b class='flag-5'>极限</b>

    信而泰CCL仿真:解锁AI极限,智中心网络性能跃升之道

    中心RoCE网络提供精准评估方案,助力企业突破瓶颈,释放AI澎湃动力! 什么是智中心 智中心(AIDC,Artificial Intelligence Data Center)
    的头像 发表于 02-24 17:34 980次阅读
    信而泰CCL仿真:解锁AI<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>极限</b>,智<b class='flag-5'>算</b>中心网络性能跃升之道

    DeepSeek对芯片的影响

    DeepSeek模型,尤其是其基于MOE(混合专家)架构的DeepSeek-V3,对芯片的要求产生了深远影响。为了更好地理解这一影响,我们可以从几个方面进行分析。一.MOE架构对
    的头像 发表于 02-07 10:02 1614次阅读
    DeepSeek对<b class='flag-5'>芯片</b><b class='flag-5'>算</b><b class='flag-5'>力</b>的影响

    中心的如何衡量?

    作为当下科技发展的重要基础设施,其的衡量关乎其能否高效支撑人工智能、大数据分析等智能应用的运行。以下是对智中心算衡量的详细阐述:一、
    的头像 发表于 01-16 14:03 4180次阅读
    <b class='flag-5'>算</b>智<b class='flag-5'>算</b>中心的<b class='flag-5'>算</b><b class='flag-5'>力</b>如何衡量?

    科技云报到:要更要“利”,“精装”触发大模型产业新变局?

    科技云报到:要更要“利”,“精装”触发大模型产业新变局?
    的头像 发表于 01-16 10:24 790次阅读