0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

IBM的新型模拟内存芯片能否证明AI操作的性能和能源效率呢?

半导体产业纵横 来源:半导体产业纵横 2023-12-18 10:09 次阅读

IBM 的新型模拟内存芯片证明了 AI 操作的性能和能源效率都是可能的。

8 月,由 30 名 IBM 研究科学家组成的团队推出了一款全新芯片,旨在大幅提高耗电深度学习推理的能源效率,同时保持运算精度。这款名为 Hermes 的模拟内存芯片将数字电路与相变内存 (PCM) 相结合,因此神经网络计算可以在内存电路内进行。

这种处理器和内存配对消除了在内存和处理单元之间无休止地洗牌大量数据的需要,就像典型的人工智能加速器芯片中发生的那样。重要的是,分析表明该芯片与计算机视觉人工智能任务的数字芯片一样擅长,而且功耗却低得多。

率先推出该芯片的 IBM 欧洲研究院团队负责人 Abu Sebastian 及其同事 Manuel Le Gallo-Bourdeau 和 Vijay Narayanan 在最近的博客中明确表示,他们现在已经展示了实现快速、低功耗模拟AI芯片的架构愿景所需的许多构建模块。正如该团队的一位 IBM 科学家所言,“我们的芯片仍处于研究阶段,但我们现在将构建尽可能多的硬件,以准确了解它的功能并了解它的性能。”

耗电的人工智能

人工智能功耗问题的根源在于冯·诺依曼瓶颈,该瓶颈以现代计算机架构的先驱约翰·冯·诺依曼的名字命名。在这里,CPU 和内存是独立的实体,因此数据和计算必须不断地在两者之间来回穿梭。此过程会产生瓶颈,因为处理速度通常比检索数据或将数据写入内存的速度更快。

长期以来,设计人员一直在使用内存缓存、流水线和分层内存方案等解决方法来应对瓶颈。最近,芯片巨头专门开发了加速器芯片来承担新兴的人工智能处理任务。例如,英伟达已经从其 GPU 技术中取得了长足的进步。谷歌开发了张量处理单元;英特尔提供多种解决方案,包括可针对人工智能计算进行编程FPGA高通则为移动设备设计了人工智能加速器芯片。

尽管如此,人工智能的高能耗需求及其不断增加的操作数量,需要一种更节能的方法,而这正是模拟内存计算似乎将发挥关键作用的地方。

模拟内存芯片可以通过直接在内存内执行计算来规避冯·诺依曼瓶颈。模拟计算方案只需要几个电阻电容器,因此可以将它们重新定位到存储器中,消除了存储器和处理器之间的分离,从而提高了能源效率,远远超过了数字芯片。

IBM 在其最新的模拟人工智能芯片中采用了这种方法。该芯片采用 14 nm CMOS 设计和制造,包含 64 个计算核心,每个核心都有自己的 PCM 阵列以及用于额外神经网络操作(例如激活和累加)的轻型数字处理器。片上通信网络将核心连接在一起,芯片中心的进一步数字处理单元可以处理更苛刻的神经网络计算。

尽管使用 PCM 技术使其与众不同,但 IBM 并不是唯一一家致力于模拟 AI 芯片的公司。例如,英特尔实验室的研究人员一直在研究静态随机存取存储器和其他技术;美国初创公司Mythic专注于多级闪存;来自斯坦福大学、圣母大学、加州大学圣地亚哥分校和清华大学的研究人员开发了一种神经形态芯片,称为 NeuRRAM,它使用电阻式随机存取存储器。

PCM 是 IBM 的合理选择,因为该公司至少花了十年时间开发这些用于存储应用的材料,包括多级 PCM 芯片。PCM 本身是一种非易失性随机存取存储器,加热时会在低导电非晶相和高导电晶相之间切换。基于这些材料的设备可以利用相变,将电导的变化编码为突触权重,然后用于计算操作。

正如 IBM 的最新结果所示,这种连续的值(而不仅仅是数字设备中的 1 或 0)非常适合深度神经网络操作。

当与基于类似技术的其他芯片(包括 NeuRRAM 以及 Mythic 和 TSMC 开发的芯片)进行基准测试时,IBM 的技术可以执行矩阵向量乘法(这是人工智能运算的基础),速度至少提高 15 倍,并且能效相当。值得注意的是,在使用人工智能训练彩色图像数据库 CIFAR-10 进行测试时,该芯片还被证明在图像识别方面比其他芯片更准确,挑战了模拟内存计算虽然节能但容易出现计算错误的观念。

“相变存储器的优势在于它足够稳定,可以进行一些相对准确的计算,”IBM 科学家说。“我们开发了精确编程的技术,并且还详细描述了错误的特征。我们的精度对于神经网络来说已经足够了。”

英特尔实验室研究科学家 Hechen Wang 也多年来一直致力于模拟内存计算,他同意该方法可以实现卓越的能源效率。“研究人员大约五年前开始研究模拟内存,现在 IBM、imec、GlobalFoundries、台积电、三星和其他公司和学术团体开始研究这项技术,”他说。“如果我们想要进行非常高效的AI计算,我们需要将处理单元放入内存阵列,甚至内存单元中。”

Hechen Wang说,英特尔实验室正在寻求内存计算的多种途径,并探索一系列内存技术。“对于哪种记忆才是正确的方向,我们还没有得出结论。”

尽管如此, Hechen Wang相信 IBM 和其他公司的最新模拟内存开发正在对这个“热门”领域产生积极影响。“IBM 的研究成果已经发表在 Nature 论文上,说实话,我从来没想过会发生这种事,”他说。“很多人阅读了这些出版物,我希望这些结果能够开阔他们的视野,并吸引更多人对该领域的关注。”

下一步

自从在《自然电子》杂志上发表研究结果以来,IBM 欧洲研究人员明确表示,他们的工作证明模拟 AI 可以提供与传统数字加速器相媲美的必要计算精度,而且能效更高。随着基于人工智能的技术的兴起,节能且准确的推理硬件变得至关重要,研究人员的目标是创建能够执行端到端推理操作的模拟内存芯片。

与此同时,IBM 欧洲研究院表示,它打算利用 PCM 设备可达到的高突触密度,构建更大的芯片,能够比竞争对手的数字加速器运行整个网络操作。

IBM 科学家表示:“一旦我们真正展示了这项技术的前景,并且更多的人想要投资(该领域),那么我们就可以组建由数百名研究人员组成的团队来从事这项工作,这样我们就可以将芯片投入生产模式。”







审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    18275

    浏览量

    222157
  • PCM
    PCM
    +关注

    关注

    1

    文章

    186

    浏览量

    52674
  • 人工智能
    +关注

    关注

    1776

    文章

    43845

    浏览量

    230600
  • 计算机视觉
    +关注

    关注

    8

    文章

    1600

    浏览量

    45616
  • AI芯片
    +关注

    关注

    17

    文章

    1652

    浏览量

    34380

原文标题:IBM 的AI芯片能否重塑深度学习推理?

文章出处:【微信号:ICViews,微信公众号:半导体产业纵横】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    微软正在研发新型网卡,旨在提升自研AI芯片性能

    微软近日被曝正在秘密研发一款高性能新型网卡,这一创新旨在增强其自研的Maia AI服务器芯片的功能,并可能大幅度降低对外部芯片设计厂商如英
    的头像 发表于 02-21 11:01 338次阅读

    荷兰AI芯片设计公司Axelera计划推出新型汽车芯粒AI架构

    荷兰边缘人工智能(AI芯片设计领域的领军企业Axelera AI Solutions正在积极开发一款新型的汽车芯粒(chiplet)内存
    的头像 发表于 01-18 18:24 1178次阅读

    LabVIEW开发新型电化学性能测试设备

    LabVIEW开发新型电化学性能测试设备 开发了一种基于Arduino和LabVIEW的新型电化学性能测试装置,专门用于实验电池,特别是在锂硫(Li-S)技术领域的评估。这种装置结合了
    发表于 12-10 21:00

    IBM发布新量子计算芯片

    IBM量子芯片行业芯事行业资讯
    深圳市浮思特科技有限公司
    发布于 :2023年12月06日 16:23:09

    英伟达最强AI芯片H200性能如何?

    英伟达进一步指出,内存带宽对于 HPC 应用程序至关重要,因为它可以实现更快的数据传输,减少复杂的处理瓶颈。对于模拟、科学研究和人工智能等内存密集型 HPC 应用,H200 更高的内存
    发表于 11-22 16:40 461次阅读
    英伟达最强<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>H200<b class='flag-5'>性能</b>如何?

    #芯片 #AI 世界最强AI芯片H200性能大揭秘!

    芯片AI
    深圳市浮思特科技有限公司
    发布于 :2023年11月15日 15:54:37

    IBM 发布新一代 IBM Storage Scale System 6000,加速释放数据和 AI 的潜力

    面向非结构化数据的全新云规模、高性能存储设备,支持最严苛的 AI 和容量密集型工作负载 近日,IBM (纽交所股票代码:IBM)  推出了全新的 I
    的头像 发表于 11-14 19:45 296次阅读
    <b class='flag-5'>IBM</b> 发布新一代 <b class='flag-5'>IBM</b> Storage Scale System 6000,加速释放数据和 <b class='flag-5'>AI</b> 的潜力

    什么是模拟芯片模拟芯片测试指标是什么?

    和控制。 模拟芯片测试指标是对芯片性能的度量和评估。这些指标通常包括以下几个方面: 1. 基本性能参数:
    的头像 发表于 11-10 15:26 912次阅读

    IBM公司最新推出一款名为“NorthPole”的类脑芯片

    据悉,IBM公司最新推出了一款名为“NorthPole(https://research.ibm.com/blog/northpole-ibm-ai-chip)”的类脑芯片,其运行由人
    的头像 发表于 10-27 17:06 1050次阅读

    IBM开发新芯片AI提速:消除片外内存,灵感来自大脑

    IBM研发的北极点(NorthPole)处理器芯片可避开访问外部存储器,提高计算能力,节约能源。 美国加利福尼亚州圣何塞的IBM研究人员开发了一种以大脑为灵感的计算机
    的头像 发表于 10-23 15:43 252次阅读

    如何解决内存碎片与内存交换效率慢的问题

    内存分页 分段的好处是能产生连续的内存空间,但是会出现大量内存碎片与内存交换效率低的问题 先思考一下怎么解决这两个问题,
    的头像 发表于 10-09 16:57 546次阅读
    如何解决<b class='flag-5'>内存</b>碎片与<b class='flag-5'>内存</b>交换<b class='flag-5'>效率</b>慢的问题

    IBM 谢东:IBM watsonx 助力生成式 AI 的企业应用

    ,企业在探索利用生成式 AI 促进自身业务发展时所面临的挑战以及应对措施。 以下是他的发言摘要: IBM 全球副总裁、IBM 大中华区首席技术官 谢东 (图片来源:2023 中国 AIGC 创新发展论坛) 大家好,我今天分享的题
    的头像 发表于 09-06 18:20 315次阅读
    <b class='flag-5'>IBM</b> 谢东:<b class='flag-5'>IBM</b> watsonx 助力生成式 <b class='flag-5'>AI</b> 的企业应用

    介绍一款轻量级的RISC-V解释型模拟

    XEMU 是一款轻量级的 RISC-V 解释型模拟器,基于 C 语言实现,支持 RV32IM 指令集,支持简单外设模拟
    的头像 发表于 07-22 14:25 1333次阅读
    介绍一款轻量级的RISC-V解释<b class='flag-5'>型模拟</b>器

    IBM采用自研AI芯片降低成本,三星获得其代工订单!

    电子发烧友网报道(文/李弯弯)日前消息,IBM总经理卡勒(Mukesh Khare)在旧金山的一次半导体会议上接受采访时表示,公司新一代企业级AI数据平台Watson系统将考虑采用自行研发的AI
    的头像 发表于 07-19 01:22 1430次阅读
    <b class='flag-5'>IBM</b>采用自研<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>降低成本,三星获得其代工订单!

    AI芯片赛道热潮 国“芯”能否弯道超车

    近日,英伟达市值冲破万亿美元大关给AI芯片赛道点了一把火。资本的疯狂涌入,市场的无限看好将AI芯片刮到风口。AI
    的头像 发表于 07-13 15:42 418次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>芯片</b>赛道热潮 国“芯”<b class='flag-5'>能否</b>弯道超车