0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

一种新型模拟AI芯片,能效提升了1000倍

芯长征科技 来源:quantamagazine 作者:quantamagazine 2022-11-14 11:08 次阅读

人工智能算法无法以目前的速度保持增长。像深度神经网络这样的算法——它受到大脑的松散启发,多层人工神经元通过称为权重的数值相互连接——每年都在变大。但如今,硬件改进已无法跟上运行这些海量算法所需的大量内存和处理能力。很快,人工智能算法的规模可能会碰壁。

即使我们可以不断扩大硬件以满足人工智能的需求,也存在另一个问题:在传统计算机上运行它们会浪费大量能源。运行大型人工智能算法产生的高碳排放已经对环境有害,而且随着算法变得越来越庞大,情况只会变得更糟。

一种称为神经形态计算的解决方案从生物大脑中汲取灵感来创建节能设计。不幸的是,虽然这些芯片在节能方面可以超过数字计算机,但它们缺乏运行大型深度神经网络所需的计算能力。这让人工智能研究人员很容易忽视它们。

这在 8 月终于改变了,当时Weier Wan , H.-S. Philip Wong、Gert Cauwenberghs和他们的同事展示了一种名为 NeuRRAM 的新型神经形态芯片,其中包括 300 万个存储单元和数千个内置于其硬件中的神经元以运行算法。它使用一种相对较新的内存类型,称为电阻式 RAM 或 RRAM。与以前的 RRAM 芯片不同,NeuRRAM 被编程为以模拟方式运行,以节省更多的能源和空间。虽然数字存储器是二进制的——存储 1 或 0——但 NeuRRAM 芯片中的模拟存储单元可以在一个完全连续的范围内存储多个值。这使得芯片可以在相同数量的芯片空间中存储来自大量 AI 算法的更多信息

因此,新芯片可以在图像和语音识别等复杂的人工智能任务上与数字计算机一样执行,作者声称它的能效提高了 1000 倍,为微型芯片运行越来越复杂的算法开辟了可能性在以前不适合人工智能的小型设备中,如智能手表和手机

未参与这项工作的研究人员对结果印象深刻。“这篇论文非常独特,”香港大学长期 RRAM 研究员王中瑞说。“它在不同的层面做出了贡献——在设备层面、电路架构层面和算法层面。”

创造新的记忆

在数字计算机中,运行 AI 算法时浪费的大量能源是由一个简单且普遍存在的设计缺陷造成的,该缺陷使每一次计算都效率低下。通常,计算机的内存——它保存计算过程中处理的数据和数值——放置在远离进行计算的处理器的主板上。

对于通过处理器传输的信息,“这有点像你在通勤上花了八个小时,但你做了两个小时的工作,”曾在斯坦福大学工作的计算机科学家万说,他最近搬到了人工智能初创公司 Aizip。

将内存和计算放在同一个地方的新型一体化芯片来解决这个问题似乎很简单。它也更接近于我们的大脑可能如何处理信息,因为许多神经科学家认为计算发生在神经元群体中,而记忆是在神经元之间的突触加强或削弱它们的连接时形成的。但事实证明,制造这样的设备很困难,因为目前的内存形式与处理器中的技术不兼容。

几十年前,计算机科学家开发了这些材料来制造新的芯片,这些芯片在存储内存的地方执行计算——一种被称为内存计算的技术。但由于传统的数字计算机表现如此出色,这些想法被忽视了几十年。

“这项工作,就像大多数科学工作一样,被遗忘了,”斯坦福大学教授 Wong 说。

事实上,第一个这样的设备至少可以追溯到 1964 年,当时斯坦福大学的电气工程师发现他们可以操纵某些称为金属氧化物的材料来打开和关闭其导电能力。这很重要,因为材料在两种状态之间切换的能力为传统内存存储提供了支柱。通常,在数字存储器中,高电压状态对应于 1,低电压状态对应于 0。

为了让 RRAM 设备切换状态,您需要在连接到金属氧化物两端的金属电极上施加电压。通常,金属氧化物是绝缘体,这意味着它们不导电。但有了足够的电压,电流就会积聚起来,最终穿过材料的薄弱环节,形成通往另一侧电极的路径。一旦电流突破,它就可以沿着该路径自由流动。

Wong 将这个过程比作闪电:当云中积聚了足够多的电荷时,它会迅速找到一条低电阻路径并发生雷击。但与路径消失的闪电不同,穿过金属氧化物的路径仍然存在,这意味着它可以无限期地保持导电。并且可以通过向材料施加另一个电压来擦除导电路径。因此研究人员可以在两种状态之间切换 RRAM,并使用它们来存储数字存储器。

世纪中叶的研究人员没有认识到节能计算的潜力,他们也不需要使用他们正在使用的更小的算法。直到 2000 年代初,随着新金属氧化物的发现,研究人员才意识到这种可能性。

当时在 IBM 工作的 Wong 回忆说,一位从事 RRAM 工作的获奖同事承认,他并不完全了解所涉及的物理原理。“如果他不理解,”Wong 回忆道,“也许我不应该尝试去理解它。”

但在 2004 年,三星电子的研究人员宣布他们已经成功地将 RRAM 内存集成在传统计算芯片之上,这表明内存计算芯片最终可能成为可能。王决定至少尝试一下。

用于人工智能的内存计算芯片

十多年来,像 Wong 这样的研究人员一直致力于将 RRAM 技术构建到能够可靠地处理高性能计算任务的地步。大约在 2015 年左右,计算机科学家开始认识到这些节能设备对于大型 AI 算法的巨大潜力,并开始起飞。那一年,加州大学圣巴巴拉分校的科学家表明,RRAM 设备可以做的不仅仅是以一种新的方式存储内存。他们可以自己执行基本的计算任务——包括在神经网络的人工神经元中发生的绝大多数计算,这些都是简单的矩阵乘法任务。

在 NeuRRAM 芯片中,硅神经元内置于硬件中,RRAM 存储单元存储权重——代表神经元之间连接强度的值。由于 NeuRRAM 存储单元是模拟的,它们存储的权重代表了设备在低电阻状态和高电阻状态之间切换时出现的所有电阻状态。这实现了比数字 RRAM 存储器更高的能效,因为该芯片可以并行运行许多矩阵计算,而不是像数字处理版本那样一个接一个地同步运行。

但由于模拟处理仍落后于数字处理数十年,仍有许多问题需要解决。一是模拟 RRAM 芯片必须异常精确,因为物理芯片上的缺陷会引入可变性和噪声。(对于只有两种状态的传统芯片,这些缺陷几乎没有那么重要。)这使得模拟 RRAM 设备运行 AI 算法变得更加困难,因为识别图像的准确性会受到影响,如果RRAM 器件的导电状态并非每次都完全相同。

“当我们查看照明路径时,每次都不同,”Wong 说。“因此,RRAM 表现出一定程度的随机性——每次对它们进行编程都会略有不同。” Wong 和他的同事证明,如果对算法进行训练以适应芯片上遇到的噪音,RRAM 设备可以存储连续的 AI 权重,并且仍然与数字计算机一样准确,这一进步使他们能够生产 NeuRRAM 芯片。

他们必须解决的另一个主要问题涉及支持各种神经网络所需的灵活性。过去,芯片设计人员必须将微型 RRAM 器件排列在较大的硅神经元旁边的一个区域中。RRAM 设备和神经元是硬连线的,没有可编程性,因此只能在一个方向上执行计算。为了支持具有双向计算的神经网络,需要额外的电线和电路,从而增加了能量和空间需求。

因此,Wong 的团队设计了一种新的芯片架构,其中 RRAM 存储设备和硅神经元混合在一起。这种对设计的微小改动减少了总面积并节省了能源。

瑞士苏黎世联邦理工学院的神经形态学研究员梅利卡·佩万德说:“我认为 [这种安排] 真的很漂亮。” “我绝对认为这是一项开创性的工作。”

几年来,Wong 的团队与合作者一起在 NeuRRAM 芯片上设计、制造、测试、校准和运行 AI 算法。他们确实考虑使用其他新兴类型的内存,这些内存也可用于内存计算芯片,但 RRAM 具有优势,因为它在模拟编程方面具有优势,并且相对容易与传统计算材料集成。

他们最近的结果代表了第一个可以运行如此庞大而复杂的 AI 算法的 RRAM 芯片——这一壮举以前只能在理论模拟中实现。德雷塞尔大学的计算机科学家Anup Das说:“当涉及到真正的硅时,这种能力就缺失了。” “这项工作是第一次演示。”

“数字人工智能系统灵活而精确,但效率要低几个数量级,”Cauwenberghs 说。现在,Cauwenberghs 说,他们灵活、精确和节能的模拟 RRAM 芯片“首次弥合了差距”。

扩大规模

该团队的设计使 NeuRRAM 芯片很小——只有指甲大小——同时压缩了 300 万个可用作模拟处理器的 RRAM 存储设备。虽然它至少可以像数字计算机一样运行神经网络,但该芯片也(并且是第一次)可以运行在不同方向上执行计算的算法。他们的芯片可以按照 RRAM 芯片的标准向 RRAM 阵列的行输入电压并从列读取输出,但它也可以从列到行反向执行,因此它可以用于运行的神经网络数据流向不同的方向。

与 RRAM 技术本身一样,这早已成为可能,但没有人想过这样做。“为什么我们以前没有考虑过这个?” 佩万德问道。“事后看来,我不知道。”

“这实际上开辟了许多其他机会,”达斯说。作为例子,他提到了一个简单的系统能够运行多维物理模拟或自动驾驶汽车所需的大量算法。

然而尺寸是个问题。最大的神经网络现在包含数十亿个权重,而不是新芯片中包含的数百万个权重。Wong 计划通过堆叠多个 NeuRRAM 芯片来扩大规模。

在未来的设备中保持较低的能源成本或进一步缩小它们同样重要。实现这一目标的一种方法是更紧密地复制大脑,以采用真实神经元之间使用的通信信号:电脉冲。这是当细胞内外的电压差达到临界阈值时,从一个神经元向另一个神经元发出的信号。

“那里面临着巨大的挑战,”伦敦大学学院的纳米技术研究员托尼·肯扬说。“但我们可能仍想朝那个方向发展,因为……如果您使用非常稀疏的尖峰,您可能会获得更高的能源效率。” 然而,Kenyon 指出,要在当前的 NeuRRAM 芯片上运行峰值算法可能需要完全不同的架构。

目前,该团队在 NeuRRAM 芯片上运行大型 AI 算法时实现的能源效率创造了新的希望,即内存技术可能代表 AI 计算的未来。也许有一天,我们甚至能够匹配人类大脑的 860 亿个神经元和连接它们的数万亿个突触,而不会耗尽能量。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4717

    浏览量

    99999
  • 人工智能
    +关注

    关注

    1787

    文章

    46060

    浏览量

    234968
  • AI芯片
    +关注

    关注

    17

    文章

    1828

    浏览量

    34664

原文标题:一种新型模拟AI芯片,能效提升了1000倍

文章出处:【微信号:芯长征科技,微信公众号:芯长征科技】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    NEO推出3D X-AI芯片AI性能飙升百

    近日,半导体行业的创新先锋NEO Semiconductor震撼发布了项革命性技术——3D X-AI芯片,这项技术旨在彻底颠覆人工智能处理领域的
    的头像 发表于 08-21 15:45 491次阅读

    安森美引领数据中心革命

    在当今数字化转型的浪潮中,数据中心作为支撑人工智能、云计算等关键技术的基础设施,其能耗问题日益凸显。特别是随着AI计算的蓬勃发展,数据中心对电力的需求急剧增加,传统搜索引擎请求相比,AI引擎的电力消耗更是高达十以上。因此,
    的头像 发表于 08-12 11:13 351次阅读

    利用AI和加速计算提升天气预报效率和

    在 NVIDIA GPU 驱动的扩散模型助力下,生成式 AI 在各个领域实现新的应用,大大提升了效率。   当台湾气象员得以在台机器上模拟台风的细节,他们深感其对预报任务
    的头像 发表于 06-07 15:06 413次阅读

    AMD披露高效数据中心策略,预计至2027年提升超百

    会议期间,苏姿丰谈论了AMD如何通过实施30x25战略推动2025年计算节点提升30的目标。她进步透露,AMD已找到2026年至20
    的头像 发表于 05-24 17:37 914次阅读

    最强AI芯片发布,Cerebras推出性能翻倍的WSE-3 AI芯片

    近日,芯片行业的领军企业Cerebras Systems宣布推出其革命性的产品——Wafer Scale Engine 3,该产品成功将现有最快AI芯片的世界纪录提升了
    的头像 发表于 03-19 09:31 892次阅读
    最强<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>发布,Cerebras推出性能翻倍的WSE-3 <b class='flag-5'>AI</b><b class='flag-5'>芯片</b>

    一种新型超级电容模组充电电源设计

    一种新型超级电容模组充电电源设计超级电容器(Supercapacitors,ultracapacitor),不同于传统的化学电源,是一种介于传统电容器与电池之间、具有特殊性能的电源,主要依靠双电层
    的头像 发表于 03-11 08:47 428次阅读
    <b class='flag-5'>一种</b><b class='flag-5'>新型</b>超级电容模组充电电源设计

    介绍一种用于绝对定量的微腔式数字PCR微流控芯片

    本文提出一种微腔式数字PCR微流控芯片。作者将两层微结构背对背堆叠在起使得在不改变芯片平面面积的情况下使腔室数量和试剂容量增加一倍,极大
    的头像 发表于 03-04 10:15 556次阅读
    介绍<b class='flag-5'>一种</b>用于绝对定量的微腔式数字PCR微流控<b class='flag-5'>芯片</b>

    IBM的新型模拟内存芯片能否证明AI操作的性能和能源效率呢?

    IBM 的新型模拟内存芯片证明了 AI 操作的性能和能源效率都是可能的。
    的头像 发表于 12-18 10:09 537次阅读

    清华开发出超高性能计算芯片:速度比高端GPU提升3000提升400万

    为解决这国际难题,清华大学团队创造性地提出了模拟电融合模拟光的计算框架,构建可见光下的大规模多层衍射神经网络实现视觉特征提取,利用光电流直接进行基于基尔霍夫定律的纯模拟电子计算,两者
    的头像 发表于 11-24 17:04 450次阅读
    清华开发出超高性能计算<b class='flag-5'>芯片</b>:速度比高端GPU<b class='flag-5'>提升</b>3000<b class='flag-5'>倍</b>,<b class='flag-5'>能</b><b class='flag-5'>效</b><b class='flag-5'>提升</b>400万<b class='flag-5'>倍</b>!

    SiC晶圆划片工艺:速度提升100芯片增加13%

    近日,家日本厂商发布了一种全新的SiC晶圆划片工艺,与传统工艺相比,这项技术可将划片速度提升100,而且可以帮助SiC厂商增加13%的芯片
    的头像 发表于 11-21 18:15 2004次阅读
    SiC晶圆划片工艺:速度<b class='flag-5'>提升</b>100<b class='flag-5'>倍</b>,<b class='flag-5'>芯片</b>增加13%

    安科瑞数据中心管理系统:提升,降低运营成本

    数据中心管理系统是套功能强大、应用广泛、优势明显的管理解决方案。通过该系统,数据中心可以实现对能源的精细化、智能化管理,提高能源利
    的头像 发表于 11-07 15:57 452次阅读
    安科瑞数据中心<b class='flag-5'>能</b><b class='flag-5'>效</b>管理系统:<b class='flag-5'>提升</b><b class='flag-5'>能</b><b class='flag-5'>效</b>,降低运营成本

    一种新型的最大功率跟踪实现方法在太阳充电器中的应用

    电子发烧友网站提供《一种新型的最大功率跟踪实现方法在太阳充电器中的应用.pdf》资料免费下载
    发表于 11-02 11:12 4次下载
    <b class='flag-5'>一种</b><b class='flag-5'>新型</b>的最大功率跟踪实现方法在太阳<b class='flag-5'>能</b>充电器中的应用

    一种新型的键盘与显示电路设计

    电子发烧友网站提供《一种新型的键盘与显示电路设计.pdf》资料免费下载
    发表于 10-20 11:34 0次下载
    <b class='flag-5'>一种</b><b class='flag-5'>新型</b>的键盘与显示电路设计

    一种新型防伪读码器的设计电路方案

    电子发烧友网站提供《一种新型防伪读码器的设计电路方案.pdf》资料免费下载
    发表于 10-11 11:28 0次下载
    <b class='flag-5'>一种</b><b class='flag-5'>新型</b>防伪读码器的设计电路方案

    苹果15是a16芯片还是a17芯片 苹果a17芯片的性能提升多少

    苹果15是a16芯片还是a17芯片 苹果15是a17芯片。据了解,这是全球首颗3nm制程的芯片,主要提升性能和
    的头像 发表于 09-26 14:56 6773次阅读