0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

GDDR6和HBM2E双利器!Rambus内存接口方案助力突破AI应用带宽瓶颈

章鹰观察 来源:电子发烧友原创 作者:章鹰 2020-12-21 22:15 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

12月9日,Rambus线上设计峰会召开,针对数据中心的存储挑战、5G边缘计算,以及内存接口方案如何提高人工智能和训练推理应用程序的性能,Rambus中国区总经理苏雷和Rambus高速接口资深应用工程师曹汪洋,数据安全资深应用工程师张岩带来最新的产业观察和技术分享。

数据中心和人工智能引领高速接口IP市场

“我们发现整个业界新推出的中速接口IP越来越少,低速的基本上没有了,大家都把注意力放在高速接口IP上。” Rambus中国区总经理苏雷对媒体表示,“主要原因有两个:一是工艺制程的进步和市场竞争,会迫使芯片设计厂商采用更高速的接口。二是从标准上来看,高速接口一般都可以做到向下兼容。”

苏雷从业务层面对内存需求进行了详细说明:数据中心和人工智能在大力推动接口IP市场的发展,引领了对数据带宽和内存能力的要求,推动计算架构的变革。现在高速内存控制器不断的出现,比如GDDR6、HBM;各种支持小芯片互联的技术也不断的出现,比如用于并行传输的HBI,还有用于串行传输的SerDes。

他特别强调,安全方面比以往任何时候都显得更加重要。因为在数据中心和AI训练里,大量的数据在接口中需要读取和搬迁,关于数据安全性的问题,也引发业界越来越多的关注。

在存储IP领域,Rambus的优势体现在,给客户提供一站式的存储、采购和交钥匙服务。在接口IP方面,Rambus已经收购了一家全球知名的控制器厂商Northwest Logic。可以为客户提供从PHY到controller一站式的打包服务,并在方案中尽可能的集成各种组件,简化和方便客户方的设计加快客户产品的上市时间。

对于安全领域,Rambus从三个方向着手:一、从芯片架构设计阶段加入安全设计;二、在零信任供应链中保证安全。三、在不信任安全环境中确保安全。据悉,Rambus收购了Verimatrix的安全IP团队,加上Rambus原有的安全团队,实现了业界最为广泛的安全IP产品,并具备全球领先的安全IP研发实力。

HBM2E和GDDR6助力AI和ML应用

中国已经成为全球人工智能发展最快的国家之一,2020年,中国AI市场规模将达到710亿人民币,2015到2020年中国AI市场的复合增长率达到44.5%,内存宽带是影响AI发展的关键因素。

带宽是AI发展的重要驱动因素,如何推动内存带宽的发展?Raymond Su认为,GDDR6和HBM2E是非常重要的两个利器,Rambus有信心通过在HBM2E和GDDR6的行业领先的地位助力中国人工智能迈向下一个发展的浪潮。

Rambus资深应用工程师曹汪洋分析指出,人工智能和机器学习现在逐渐流行起来,它的规模和复杂度每年呈10倍地增长。AI和ML对性能的需求非常高。在人工智能领域,,Rambus HBM2E的性能正式提高到4.0 Gbps每秒,4.0 Gbps是全新的行业标杆,我们一个开发过程中的合作伙伴就是SK海力士,Rambus提供的HBM2E内存实现了4Gbps的业界顶尖数据传输速率。

Rambus HBM2E和GDDR6方案速度实现全球最高的、最顶峰的水平,这给公司带来哪些独特优势呢?Rambus中国区总经理苏雷认为,这可以帮客户的方案设计提供足够裕量空间,保证整个系统的稳定性。例如燧原科技已经选择了Rambus作为下一代AI训练芯片的合作伙伴。

“燧原在下一代的人工智能训练芯片的产品当中,选择了Rambus的HBM2E解决方案。Rambus可靠的HBM2内存子系统IP提供了AI芯片所需的超高带宽性能,非常适合燧原科技的云AI培训需求。作为该接口IP的补充,Rambus还提供硅中介层和封装参考设计,并支持信号电源完整性 (SI/PI)分析。

据悉,除了最新发布的4 Gbps,台积电7纳米工艺生产的产品使用HBM2E之外,Rambus在11纳米,12纳米、14纳米等不同的工艺节点有不同的IP产品在市场上销售。

5G数据中心和边缘计算需要不同的内存接口解决方案

Rambus资深应用工程师曹汪洋指出,5G的边缘计算和数据中心,主内存明年开始过渡到DDR5,相比DDR4的16Gb,它的最大容量提升了4倍左右,可以达到64Gb。这些也都逐渐在提升数据的容量,不断的在对内存、对系统提出更高的性能要求,这些部分Rambus都有相关的产品提供。

在实际案例部分,Rambus分享了一个Soc案列,它里面包括6个HBM2E设备,能够总共支持像144G字节的容量,每个HBM2E的设备都能支持12个DRAM的堆叠。这个HBM2E子系统的解决方案,可以给客户提供高性能和大容量,来满足他们在高端应用上的各种需求。

中国市场对于边缘计算、AI芯片和服务器的内存需求都非常庞大。以边缘计算为例,Rambus有像C2C的SerDes,它首先能够保持高性能的数据传输,保证应用处理的实时性。在内存接口方面,有GDDR6和DDR的产品,它们仍然是基于传统PCB的解决方案,能够让客户根据具体的需求、具体的应用,在成本和性能中选择一个比较好的平衡点。

在数据中心和AI应用方面,Rambus是全球HBM IP技术的引领者。“在市场份额上排名第一,在全球范围内拥有50多个成功的客户案例。我们的方案是成熟稳定的,经得起市场的考验。我们所有的芯片从设计到原型到投产,不需要任何的设计返工,基本上所有的芯片都会实现一次成功。” Rambus中国区总经理苏雷表示。

本文由电子发烧友网原创,未经授权禁止转载。如需转载,请添加微信号elecfans999。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • IP
    IP
    +关注

    关注

    5

    文章

    1849

    浏览量

    154903
  • Rambus
    +关注

    关注

    0

    文章

    66

    浏览量

    19278
  • AI
    AI
    +关注

    关注

    89

    文章

    38090

    浏览量

    296520
  • GDDR6
    +关注

    关注

    0

    文章

    52

    浏览量

    11569
  • HBM2E
    +关注

    关注

    0

    文章

    4

    浏览量

    3522
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    HBM迎头赶上!国产AI芯片飞跃

    A800和H20之间。   根据报道,平头哥PPU采用HBM2e显存,单卡显存容量96GB,片间带宽为700GB/s,采用PCIe5.0×16通道接口,单卡功耗为400W。英伟达A800显存同样采用
    的头像 发表于 09-22 07:02 1.1w次阅读
    <b class='flag-5'>HBM</b>迎头赶上!国产<b class='flag-5'>AI</b>芯片飞跃

    AI大算力的存储技术, HBM 4E转向定制化

    在积极配合这一客户需求。从HMB4的加速量产、HBM4E演进到逻辑裸芯片的定制化等HBM技术正在创新中发展。   HBM4 E的 基础裸片 集成内存
    的头像 发表于 11-30 00:31 4984次阅读
    <b class='flag-5'>AI</b>大算力的存储技术, <b class='flag-5'>HBM</b> 4<b class='flag-5'>E</b>转向定制化

    全球首款HBM4量产:2.5TB/s带宽超越JEDEC标准,AI存储迈入新纪元

    海力士 HBM4 内存的 I/O 接口位宽为 2048-bit,每个针脚带宽达 10Gbps,因此单颗带宽可高达 2.5TB/s。这一里程
    发表于 09-17 09:29 5738次阅读

    性能优于HBM,超高带宽内存 (X-HBM) 架构来了!

    和单芯片高达512 Gbit的容量,带宽提升16倍,密度提升10倍,显著突破了传统HBM的局限性。     关键特性和优势包括,可扩展性,使GPU和内存之间的数据传输更快,从而实现更高
    的头像 发表于 08-16 07:51 4545次阅读
    性能优于<b class='flag-5'>HBM</b>,超高<b class='flag-5'>带宽</b><b class='flag-5'>内存</b> (X-<b class='flag-5'>HBM</b>) 架构来了!

    突破堆叠瓶颈:三星电子拟于16层HBM导入混合键合技术

    在当今科技飞速发展的时代,人工智能、大数据分析、云计算以及高端图形处理等领域对高速、高带宽存储的需求呈现出爆炸式增长。这种背景下,高带宽内存(High Bandwidth Memory,HBM
    的头像 发表于 07-24 17:31 504次阅读
    <b class='flag-5'>突破</b>堆叠<b class='flag-5'>瓶颈</b>:三星电子拟于16层<b class='flag-5'>HBM</b>导入混合键合技术

    Cadence推出HBM4 12.8Gbps IP内存系统解决方案

    近日,Cadence(NASDAQ:CDNS)近日宣布推出业界速度最快的 HBM4 12.8Gbps 内存 IP 解决方案,以满足新一代 AI 训练和 HPC 硬件系统对 SoC 日益
    的头像 发表于 05-26 10:45 1184次阅读

    比肩HBM,SOCAMM内存模组即将商业化

    参数规模达数百亿甚至万亿级别,带来巨大内存需求,但HBM内存价格高昂,只应用在高端算力卡上。SOCAMM则有望应用于AI服务器、高性能计算、AI
    的头像 发表于 05-17 01:15 3561次阅读

    Celestial AI 在 Virtuoso Studio 环境中采用Cadence方案进行智能RC调试、优化和签核

          AI 模型规模的爆炸式增长促使业内对低延迟内存带宽和容量的需求出现激增。Celestial AI 一直在与多家大型服务商合作,以深入探究运算、
    的头像 发表于 05-15 19:15 982次阅读

    Cadence推出DDR5 12.8Gbps MRDIMM Gen2内存IP系统解决方案

    GDDR6 产品线,拥有全新的可扩展、可调整的高性能架构。此 IP 解决方案已与人工智能、高性能计算和数据中心领域的多家领先客户建立合作,在技术创新领域持续深耕。
    的头像 发表于 05-09 16:37 828次阅读

    HBM新技术,横空出世:引领内存芯片创新的新篇章

    随着人工智能、高性能计算(HPC)以及数据中心等领域的快速发展,对内存带宽和容量的需求日益增长。传统的内存技术,如DDR和GDDR,已逐渐难以满足这些新兴应用对高性能、低延迟和高能效的
    的头像 发表于 03-22 10:14 3140次阅读
    <b class='flag-5'>HBM</b>新技术,横空出世:引领<b class='flag-5'>内存</b>芯片创新的新篇章

    Banana Pi 发布 BPI-AI2N &amp; BPI-AI2N Carrier,助力 AI 计算与嵌入式开发

    助力 AI、智能制造和物联网行业的发展。未来,Banana Pi 将继续深化与Renesas的技术合作,推动更多高性能嵌入式解决方案的落地。 ” BPI-AI2N开发板赋能多场景应用,
    发表于 03-19 17:54

    美光量产12层堆栈HBM,获英伟达供应合同

    近日,美光科技宣布即将开始量产其最新的12层堆栈高带宽内存HBM),并将这一高性能产品供应给领先的AI半导体公司英伟达。这一消息的发布,标志着美光在
    的头像 发表于 02-18 14:51 1144次阅读

    三星电子将供应改良版HBM3E芯片

    三星电子在近期举行的业绩电话会议中,透露了其高带宽内存HBM)的最新发展动态。据悉,该公司的第五代HBM3E产品已在2024年第三季度实现大规模生产和销售,并在第四季度成功向多家GP
    的头像 发表于 02-06 17:59 1022次阅读

    美光加入16-Hi HBM3E内存竞争

    领域迈出了重要一步。16-Hi HBM3E内存以其高带宽、低功耗的特性,在数据中心、人工智能、机器学习等领域具有广泛的应用前景。随着技术的不断进步,市场对高性能内存的需求日益增加,美光
    的头像 发表于 01-17 14:14 860次阅读

    美光发布HBM4与HBM4E项目新进展

    近日,据报道,全球知名半导体公司美光科技发布了其HBM4(High Bandwidth Memory 4,第四代高带宽内存)和HBM4E项目的最新研发进展。 据悉,美光科技的下一代
    的头像 发表于 12-23 14:20 1291次阅读