0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

美光宣布开始量产HBM3E高带宽内存 功耗比竞争对手产品低30%

半导体产业纵横 来源:半导体产业纵横 2024-02-28 10:23 次阅读

存储三强的竞争更加激烈了。

美光(Micron)宣布开始量产HBM3E高带宽内存。美光称,其HBM3E的功耗将比竞争对手的产品低30%。

据悉,美光的HBM3E将应用于英伟达下一代AI芯片H200 Tensor Core GPU。之前英伟达的HBM由SK海力士独家供应,如今美光、三星都将加入。

HBM(High Bandwidth Memory)即高带宽存储器,属于图形DDR内存的一种,通过使用先进的封装方法(如TSV硅通孔技术)垂直堆叠多个DRAM,与GPU通过中介层互联封装在一起。HBM的优点在于打破了内存带宽及功耗瓶颈。CPU处理的任务类型更多,且更具随机性,对速率及延迟更为敏感,HBM特性更适合搭配GPU进行密集数据的处理运算,英伟达新一代AI芯片,均搭载HBM内存。

HBM产品问世至今,HBM技术已经发展至第四代,分别为HBM、HBM2、HBM2E、HBM3,第五代HBM3E目前已量产,HBM被认为是人工智能时代的新一代DRAM。

HBM方案作为近存计算的典型技术,可以改善存算分离导致的“存储墙”问题,即存储单元的带宽问题、存储单元与计算单元数据传输的能效问题,并且,HBM中Die裸片的垂直堆叠也增大了容量。因此,在存算一体真正落地之前,HBM技术是契合当前GPU对更多内存、更高带宽需求的最佳方案。

HBM的特点是大容量、高带宽(带宽用于衡量DRAM传输数据的速率,是核心技术指标),它将多个DDR裸片堆叠在一起后和GPU封装在一起,实现大容量、高位宽的DDR组合阵列。

2013年,SK海力士率先推出HBM1,HBM1每个堆栈的带宽为128GB/s、支持4个DRAM堆栈集成,容量为每堆栈4GB。2017年,SK海力士推出了HBM2,它的带宽和容量与HBM1相比实现翻倍增长。2018年,JEDEC推出了HBM2e规范,HBM2e可以实现每堆栈461GB/s的带宽。SK海力士于2022上半年开始量产HBM3,带宽达到819.2 GB/s,支持12个DRAM堆栈集成,容量达每堆栈24GB。2023年,主流市场需求从HBM2e转向HBM3,HBM3需求占比提升至39%,随着使用HBM3的加速芯片陆续放量,预计2024年HBM3的市场需求占比将达到60%。

2023年底,英伟达发布了DGX GH200,进一步推升了AI服务器对内存性能的需求,DGX GH200共链接了256个Grace Hopper超级芯片,具有144TB的共享内存,GH200单卡配备了480GB LPDDR5内存和96GB的HBM显存,而在上一代DGX H100服务器中,平均单个H100芯片对应256GB内存和80GB的HBM。二者对比,GH200方案的内存容量有显著提升。

TrendForce认为,英伟达正在规划更多HBM供应商,美光、SK海力士、三星都已于2023年陆续提供了8hi(24GB)样品,三星的HBM3(24GB)已经在2023年底完成验证。

由于HBM的验证过程繁琐,预计耗时两个季度,以上三大内存原厂都预计于2024年第一季完成验证。各原厂的HBM3e验证结果,也将决定英伟达2024年HBM供应商的采购权重分配。

英伟达2023年的高端AI芯片(采用HBM的)的既有产品为A100、A800和H100、H800,2024年,除了上述型号外,该公司还将推出使用6个HBM3e的H200和8个HBM3e的B100,并同步整合自家基于Arm架构的 CPU,推出GH200和GB200。

2024年,AMD将重点出货MI300系列,采用HBM3,下一代MI350将采用HBM3e,将在2024下半年开始进行HBM验证,预计大规模量产时间将出现在2025年第一季度。

英特尔方面,2022下半年推出了Habana Gaudi 2,采用6个HBM2e,预计2024年新型号Gaudi 3将继续采取HBM2e,但用量将升级至8个。

1月下旬,SK海力士公布了HBM发展路线图,该公司副总裁Kim Chun-hwan透露,计划在2024上半年量产HBM3e,并向客户交付8层堆叠样品,在6层堆栈HBM3e配置中,每层堆栈可提供1.2 TB/s的通信带宽,8层堆叠将进一步提升HBM内存的带宽。

Kim Chun-hwan表示,在不断升级的客户期望的推动下,存储行业正在面临激烈的生存竞争。随着制程工艺节点的缩小接近极限,存储器厂商越来越关注新一代存储架构和工艺,以给客户应用系统提供更高的性能。为此,SK海力士已经启动了HBM4的开发,计划于2025年提供样品,并于次年量产。

根据美光提供的信息,与前几代HBM相比,HBM4每层堆栈的理论峰值带宽将超过1.5 TB/s。为了实现这样的带宽,在保持合理功耗的同时,HBM4的目标是实现大约6GT/s的数据传输速率。

三星也有发展HBM4的时间表,计划于2025年提供样品,并于2026年量产。据三星高管Jaejune Kim透露,该公司HBM产量的一半以上是定制化产品,未来,定制HBM方案的市场规模将进一步扩大。通过逻辑集成,量身定制的HBM对于满足客户个性化需求至关重要。

一些市场观察人士表示,三星在HBM芯片开发方面落后于SK海力士,为了在新接口标准CXL开发中占据优势地位,三星加快了技术研发和产品布局。




审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • DDR
    DDR
    +关注

    关注

    9

    文章

    677

    浏览量

    64250
  • 美光
    +关注

    关注

    5

    文章

    661

    浏览量

    51018
  • HBM
    HBM
    +关注

    关注

    0

    文章

    231

    浏览量

    14383
  • 硅通孔技术
    +关注

    关注

    0

    文章

    2

    浏览量

    3419
  • AI芯片
    +关注

    关注

    17

    文章

    1654

    浏览量

    34383
  • HBM3E
    +关注

    关注

    0

    文章

    60

    浏览量

    14

原文标题:美光量产HBM3E内存,功耗比对手产品低30%

文章出处:【微信号:ICViews,微信公众号:半导体产业纵横】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    三星与AMD达成HBM3E采购大单,总金额达4万亿韩元

    三星方面表示,预计今年上半年将正式生产出HBM3E 12H内存,而AMD则计划于下半年开始生产相应的AI加速卡。值得注意的是,三星HBM3E 12H
    的头像 发表于 04-24 14:44 111次阅读

    什么是HBM3E内存?Rambus HBM3E/3内存控制器内核

    Rambus HBM3E/3 内存控制器内核针对高带宽和低延迟进行了优化,以紧凑的外形和高能效的封装为人工智能训练提供了最大的性能和灵活性。
    发表于 03-20 14:12 563次阅读
    什么是<b class='flag-5'>HBM3E</b><b class='flag-5'>内存</b>?Rambus <b class='flag-5'>HBM3E</b>/3<b class='flag-5'>内存</b>控制器内核

    SK海力士HBM3E内存正式量产,AI性能提升30倍,成本能耗降低96%

    同日,SK海力士宣布启动 HBM3E 内存量产工作,并在本月下旬开始供货。自去年宣布研发仅过了
    的头像 发表于 03-19 09:57 343次阅读

    美光开始量产HBM3E解决方案

    近日,全球领先的半导体存储器及影像产品制造商美光公司宣布,已开始大规模生产用于人工智能的新型高带宽芯片——HBM3E。这一里程碑式的进展不仅
    的头像 发表于 03-08 10:02 178次阅读

    美光科技开始量产HBM3E带宽内存解决方案

    美光科技股份有限公司(Micron Technology, Inc.)是全球内存与存储解决方案的领先供应商,近日宣布已经开始量产HBM3E
    的头像 发表于 03-05 09:16 419次阅读

    美光量产行业领先的HBM3E解决方案,加速人工智能发展

    2024 年 3 月 4 日全球内存与存储解决方案领先供应商 Micron Technology, Inc.(美光科技股份有限公司,纳斯达克股票代码:MU)近日宣布开始量产
    的头像 发表于 03-04 18:51 784次阅读
    美光<b class='flag-5'>量产</b>行业领先的<b class='flag-5'>HBM3E</b>解决方案,加速人工智能发展

    美光开始量产行业领先的 HBM3E 解决方案,加速人工智能发展

    HBM3E带宽内存 解决方案。英伟达 H200 Tensor Core GPU 将采用美光 8 层堆叠的 24GB 容量 HBM3E 内存
    的头像 发表于 03-04 14:51 582次阅读
    美光<b class='flag-5'>开始</b><b class='flag-5'>量产</b>行业领先的 <b class='flag-5'>HBM3E</b> 解决方案,加速人工智能发展

    美光新款高频宽记忆体HBM3E将被用于英伟达H200

    频宽达每秒1.2 TB以上。相较于竞争对手,美光HBM3E功耗降低约30%。 据百能云芯电.子元器.件商.城了解,
    的头像 发表于 02-28 14:17 189次阅读

    三星发布首款12层堆叠HBM3E DRAM

    近日,三星电子宣布,已成功发布其首款12层堆叠的高带宽内存HBM3E产品——HBM3E 12
    的头像 发表于 02-27 14:28 436次阅读

    三星电子成功发布其首款12层堆叠HBM3E DRAM—HBM3E 12H

    2024年2月27日 - 三星电子今日宣布,公司成功发布其首款12层堆叠HBM3E DRAM——HBM3E 12H,这是三星目前为止容量最大的HBM
    的头像 发表于 02-27 11:07 287次阅读

    SK海力士将于3月量产HBM3E存储器

    在全球存储半导体市场的激烈竞争中,SK海力士已正式结束了第五代高带宽存储器器(HBM3E)的开发工作,并成功通过了Nvidia长达半年的性能评估。这一里程碑的达成标志着SK海力士即将在今年3月
    的头像 发表于 02-21 11:14 675次阅读

    英伟达大量订购HBM3E内存,抢占市场先机

    英伟达(NVIDIA)近日宣布,已向SK海力士、美光等公司订购大量HBM3E内存,为其AI领域的下一代产品做准备。也预示着内存市场将新一轮
    的头像 发表于 12-29 16:32 651次阅读

    追赶SK海力士,三星、美光抢进HBM3E

    共五代产品。对于HBM3E,SK海力士预计2023年底前供应HBM3E样品,2024年开始量产。8层堆叠,容量达24GB,
    的头像 发表于 10-25 18:25 2224次阅读
    追赶SK海力士,三星、美光抢进<b class='flag-5'>HBM3E</b>

    SK海力士推全球最高性能HBM3E内存

    HBM3E内存(也可以说是显存)主要面向AI应用,是HBM3规范的扩展,它有着当前最好的性能,而且在容量、散热及用户友好性上全面针对AI优化。
    的头像 发表于 08-22 16:28 603次阅读

    SK海力士开发出全球最高规格HBM3E,向英伟达提供样品

    该公司表示,HBM3EHBM3的扩展版本)的成功开发得益于其作为业界唯一的HBM3大规模供应商的经验。凭借作为业界最大HBM产品供应商的经
    的头像 发表于 08-22 16:24 586次阅读