0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

硬件的未来在AI、AI的未来在材料

ZWxF_iot12345 来源:未知 作者:邓佳佳 2018-03-13 09:22 次阅读

前言

由于,人工智能AI)担负工作与目前大多数计算机的运算工作有些不同。然而,AI隐含着分析预测、推理、直观的能力与功能。实时是最有创意机器学习算法也受到现有机器硬件能力的束缚。因此,若要在AI方面取得长足进步,我们必须在硬件上进行改变,或是半导体材料上进行突破。演变从GPU开始,引入模拟设备(analog devices),然后演变成为具容错性量子计算机(fault tolerant quantum computers)。 现在从大规模分布式深度学习算法应用于图形处理器(GPU)开始将高速移动的数据,达到最终理解图像和声音。DDL算法对视频音频数据进行训练,GPU越多表示学习速度越快。

目前,IBM创下纪录:随着更多GPU加入能提升达到95%效率,就能识别750万个图像达到33.8%,使用256个GPU 于64个Minsky电源系统上。 自2009年以来,随着GPU模型训练从视频游戏图形加速器转向深度学习,使分布式深度学习每年以约2.5倍的速度发展。所以IBM曾于2017年IEEE国际电子设备会议(2017 IEEE International Electron Devices Meeting)针对应用材料发表Semiconductor Futurescapes: New Technologies, New Solutions,谈到需要开发哪些技术才能延续这种进步速度并超越GPU?

如何超越GPU IBM研究公司认为,GPU的转变分为三个阶段进行:

1、首先将在短期内利用GPU和传统的CMOS构建新的加速器以继续进行;

2、其次将寻找利用低精密度和模拟设备(analog devices)来进一步降低功率和提高性能的方法;

3、然后进入量子计算时代,它可是一个机会,能提供全新的方法。 在CMOS上的加速器还有很多工作要做,因为机器学习模型可以容忍不精确的计算。正因为“学习”模型可以借助错误学习而发挥作用,然而,在银行交易是无法容忍有一些许的错误。预估,精准运算快速的趋势,到2022年每年以2.5倍在提高。所以,我们还有五年时间来突破模拟设备(analog devices),将数据移入和移出内存以降低深度学习网络的训练时间。因此,analog devices寻找可以结合内存和运算,对于类神经演算的进展将是非常重要的。 类神经演算如同模拟脑细胞。神经元(neurons) 结构相互连接以低功率讯号突破von-Neumann的来回瓶颈(von-Neumann’s back-and-forth bottleneck),使这些讯号直接在神经元之间传递,以实现更高效的计算。美国空军研究实验室正在测试IBM TrueNorth神经突触系统的64芯片数组,专为深度神经网络推理和挖掘信息而设计。该系统使用标准CMOS,但仅消耗10瓦的能量来驱动其6400万个神经元和160亿个突触。 但相变化内存(phase change memory)是下一代内存材料,可能是针对深度学习网络优化的首款仿真器件。

进入量子时代 (quantum) 据IBM公司的研究论文,在Nature Quantum Information中展示了机器学习中量子的优势证明(“Demonstration of quantum advantage in machine learning”),展示了只有五个超导量子位处理器,量子运算能够稳定减少达100倍运算步骤,并且比非量子运算更能容忍干扰的信息。 IBM Q的商业系统现在有20个量子位,并且原型50个量子位设备正在运行。它的平均时间为90μs,也是以前系统的两倍。但是容错系统在今天的机器上显示出明显的量子优势。同时,试验新材料(如铜相通的替代品)是关键 - IBM及其合作伙伴在IEDM上推出的其他关键芯片改进,以推进所有运算平台,从von Neumann到类神经及量子。 解决处理器到储存器的连接和带宽瓶颈,将为AI带来新的储存器架构,最终可能导致逻辑和储存器制造过程技术之间的融合。IBM的TrueNorth推理芯片就是这种新架构的一个例子,其中每个神经元都可以存取自己的本地储存器,并且不需要脱机存取储存器。 借助训练和推理形式的AI运算,必须推向边缘装置上(edge devices),例如:手机智能手表等。因此,这将兴起由计算设备组成的网络系统。大多数这样的边缘装置会受到功率和成本的限制,所以他们的计算需求可能只能透过高度优化的ASIC来满足。现在,传统无晶圆厂半导体公司是否有能力提供这类型的ASIC或是否由AI芯片新创公司例如云端服务提供商,由谁主导目前还为时过早。

备注:*冯诺伊曼架构(von Neumann bottleneck):是一种将程序指令内存和数据存储器合并在一起的计算机设计概念架构,因此也隐约指出将储存装置与中央处理器分开的概念。在CPU与内存之间的流量(数据传输率)与内存的容量相比起来相当小,在现代计算机中,流量与CPU的工作效率相比之下非常小。当CPU需要在巨大的数据上执行一些简单指令时,数据流量就成了整体效率非常严重的限制,CPU将会在数据输入或输出内存时闲置。由于CPU速度远大于内存读写速率,因此瓶颈问题越来越严重。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4413

    浏览量

    126640
  • 硬件
    +关注

    关注

    11

    文章

    2921

    浏览量

    64746
  • AI
    AI
    +关注

    关注

    87

    文章

    26410

    浏览量

    264018

原文标题:硬件的未来在AI、AI的未来在材料

文章出处:【微信号:iot12345,微信公众号:物联之家网】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    炬芯科技赵新中:无线音频SoC的AI算法未来和应用

    的平台。 炬芯科技算法研发中心高级总监赵新中受邀出席,于电声元器件及芯片专题论坛发表以《无线音频SoC的AI算法未来和应用》为主题的演讲,分享了炬芯科技的音频AI算法研究、应用经验和最新成果。 随着人工智能的迅猛发展,
    的头像 发表于 04-10 11:13 136次阅读
    炬芯科技赵新中:无线音频SoC的<b class='flag-5'>AI</b>算法<b class='flag-5'>未来</b>和应用

    AI芯片未来会控制这个世界吗?

    AI芯片行业资讯
    芯广场
    发布于 :2024年03月27日 18:21:28

    NanoEdge AI的技术原理、应用场景及优势

    硬件设计则是为了确保设备执行这些任务时能够保持低能耗,从而提高其续航能力。 2、应用场景 NanoEdge AI 可以广泛应用于各种物联网设备和传感器,如智能家居、工业自动化、智能交通、医疗健康
    发表于 03-12 08:09

    怎么NanoEdge AI Studio设定交叉编译器呢?

    20231009\", 那么问题来了,怎么NanoEdge AI Studio设定交叉编译器呢,比如设置为armcc、armclang、iccram,因为我需要将库加到keil或者iar工程里面。 看样子这个软件生成的库是arm-gcc编译的,那它只能用于官方的STM
    发表于 03-07 06:28

    CES AI硬件层出不穷:你愿为AI的溢价买单吗?

    硬件AI
    电子发烧友网官方
    发布于 :2024年01月30日 16:36:00

    亿铸“芯”势力赋能AI未来

    对人类生产力的提升。如果说大模型的任务是让AI“够聪明”的话,那么算力的任务就是让AI“够便宜”,两者共同发展直到AI作为一个全新的生产要素在更大范围内参与生产和生活,真正惠及千行百业。亿铸科技正是在这样的浪潮中肩负起
    的头像 发表于 01-10 10:21 318次阅读

    驱动 AI未来

    人工智能(AI) 性能的新突破,掀起了一场未来强大数据中心的竞赛。随着 AI 应用的复杂性不断提高,以及对计算的需求呈指数级增长, 电源 可能决定着哪些数据中心可提升到更高一级的处理水平并保持领先地位。
    的头像 发表于 12-07 15:10 175次阅读

    【嵌入式AI简报20231117期】面对未来AI的三大挑战!

    AI 简报 20231117期 1.面对未来AI:三大挑战 当AI如ChatGPT在2022年末突然崭露头角时,不仅展现了AI的惊人进步,
    的头像 发表于 11-17 21:10 503次阅读
    【嵌入式<b class='flag-5'>AI</b>简报20231117期】面对<b class='flag-5'>未来</b><b class='flag-5'>AI</b>的三大挑战!

    AI智能呼叫中心

    优势的发挥,不仅提高了企业的工作效率,还提升了用户的体验,相信AI智能呼叫中心未来会有更加广阔的发展前景。
    发表于 09-20 17:53

    一文解读AI未来发展趋势、影响和挑战

    人工智能(AI)是一项重要的技术领域,已经在许多领域中取得了显著的进展。AI未来充满了无限的可能性和挑战,这篇文章将探讨AI未来发展趋势
    的头像 发表于 06-28 17:21 3125次阅读

    AI 人工智能的未来在哪?

    人工智能、AI智能大模型已经孵化;繁衍过程将突飞猛进,ChatGPT已经上线。 世界首富马斯克认为AI对人类是一种威胁;谷歌前CEO施密特认为AI和机器学习对人类有很大益处。 每个国家对核武器的运用有两面性,可造可控;但
    发表于 06-27 10:48

    AI设计芯片的未来在何方,我们和专家聊了聊

    的。 利用AI进行芯片设计如何发展至今?未来又何去何从? “设计领域AI的崛起——过往历程与未来展望” 讨论会吸引了各领域的专家,共同分享AI
    的头像 发表于 06-21 18:15 363次阅读
    <b class='flag-5'>AI</b>设计芯片的<b class='flag-5'>未来</b>在何方,我们和专家聊了聊

    《混合AIAI未来》| 高通AI白皮书发布

    高通技术公司发布白皮书《混合AIAI未来》,深入阐述混合AI架构的领先优势,终端侧AI将如何赋能生成式
    的头像 发表于 06-16 12:45 747次阅读
    《混合<b class='flag-5'>AI</b>是<b class='flag-5'>AI</b>的<b class='flag-5'>未来</b>》| 高通<b class='flag-5'>AI</b>白皮书发布

    AI视觉检测工业领域的应用

    检测系统在哪些行业中应用? AI视觉检测系统已经广泛应用于电子、汽车、食品、医药等行业,以下为行业应用案例举例: 1.电子行业:电子工厂的生产线上,工业AI视觉检测系统可以用于检测电子元件的尺寸、焊点
    发表于 06-15 16:21

    中国开源未来发展峰会“问道 AI 分论坛”即将开幕!

    的模式出现。许多业内专家更是认为,开源是未来AI 领域技术工具产品存活于市场的必要条件。 然而,备受追捧的现状背后,也隐藏着众多风险与挑战,比如数据安全和隐私保护的问题,我们该如何适合
    发表于 05-09 09:49