0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

疯抢!HBM成为AI新瓶颈!

传感器技术 来源:半导体风向标 2023-07-12 14:34 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

英伟达之后,全球科技巨头实际上正在通过向 SK 海力士索取第五代高带宽内存 (HBM) HBM3E 样品来进行预订。

半导体业内人士7月3日报道称,全球各大科技巨头已陆续向SK海力士索取HBM3E样品。该名单包括 AMD、微软和亚马逊

样品请求是下订单之前的强制性流程,旨在证明其 GPU、其他半导体芯片或云系统以及内存半导体之间的兼容性。这表明产品的良率足够稳定,可以进行量产,标志着交付前的最后阶段。HBM3E是当前顶级第四代HBM3的下一代产品。SK海力士是目前全球唯一一家量产HBM3芯片的公司。

SK海力士正忙于处理来自客户的大量HBM3E样品请求。英伟达首先要求提供样品,这次的出货量几乎是千钧一发。这些索取样品的客户公司可能会在今年年底收到样品。全球领先的GPU公司Nvidia此前曾向SK海力士供应HBM3,并已索取HBM3E样品。各大科技公司都在热切地等待 SK 海力士的样品。

随着HBM3E需求的爆炸性增长,产量显着增加。SK 海力士决定使用最新的尖端 10 纳米级第五代 (1b) 技术大幅提高明年的产量。大部分增量将由 HBM3E 填充。这表明SK海力士正在以HBM为首要业务战略,全力克服半导体低迷。据悉,SK海力士约40%的营业利润来自HBM。

所有向 SK 海力士索取 HBM3E 样品的公司都是人工智能行业的主要参与者。AMD 与 Nvidia 一起引领 GPU 市场。GPU 对于处理大量数据至关重要,是 ChatGPT 等生成型人工智能的大脑。为此,诸如 HBM 之类的高性能、大容量存储器至关重要。瓜分GPU市场的Nvidia和AMD都已向SK海力士伸出了援手。

AMD最近发布了其下一代GPU MI300X,并表示将从SK海力士和三星电子获得HBM3供应。此次,似乎是向SK海力士索取了HBM3E样品,以确定第五代HBM的供应商。MI300X配备的HBM是Nvidia去年底推出的最新旗舰GPU H100的2.4倍。

亚马逊和微软是云服务领域的两大巨头。他们的市场份额加起来超过了50%。作为生存策略,云服务公司优先引入生成式AI技术,并大幅增加投资。亚马逊旗下运营的全球第一云服务提供商(CSP)亚马逊网络服务近期投资1亿美元建立人工智能创新中心。与此同时,微软的Azure云服务正在扩大与ChatGPT开发商OpenAI的合作关系。

市场研究公司TrendForce表示:“亚马逊网络服务和谷歌等主要云服务公司正在开发自己的专用集成电路ASIC)和配备Nvidia GPU的AI服务器,是当前HBM激增的推动力要求。”

DRAM 4月的指标性产品DDR4 8Gb为例,批发价为每个1.48美元左右,环比下跌1%;4Gb产品价格为每个1.1美元左右,环比下跌8%。

在DRAM的整体颓势之中,HBM(高带宽内存,High Bandwidth Memory)却在逆势增长。身为DRAM的一种,与大部队背道而驰,价格一路水涨船高。据媒体报道,2023年开年后三星、SK海力士两家存储大厂HBM订单快速增加,HBM3规格DRAM价格上涨5倍。HBM3原本价格大约30美元每GB,现在的价格怕是更加惊人。

一边是总体DRAM跌到成本价,一边是“尖子生”HBM价格涨5倍。

6 月 18 日据 businesskorea 以及 etnews 报道,SK 海力士将扩展其 HBM3 后道工艺生产线,并已收到英伟达要求其送测 HBM3E 样品的请求

据称,考虑到对人工智能 (AI) 半导体的需求增加,S 海力士正在考虑将 HBM 的产能翻倍的计划。

业内消息称 SK 海力士于 6 月 14 日收到了 NVIDIA 对 HBM3E 样品的请求,并正在准备发货。HBM3E 是当前可用的最高规格 DRAM HBM3 的下一代,被誉为是第五代半导体产品。

SK 海力士目前正致力于开发该产品,目标是在明年上半年实现量产。SK 海力士副总裁朴明秀在今年 4 月的第一季度收益公告电话会议上透露:“我们正在为今年下半年准备 8Gbps HBM3E 产品样品,并计划在明年上半年实现量产。”

半导体产业联盟查询发现,目前 SK 海力士在 HBM 市场已经领先于三星电子。据市场研究公司 TrendForce 称,截至去年,SK 海力士在全球 HBM 市场上占据 50% 的市场份额,而三星电子则保持在 40% 左右。

去年 6 月,SK 海力士成为世界上第一个大规模生产高性能 HBM3 的公司,从而一举奠定其市场领导地位。在通过 HBM3 样品的严格性能评估后,成功满足了高端客户的需求,目前已经在为 NVIDIA H100 供应。

如果他们成功交付第五代 HBM 产品,将进一步巩固他们在超快速 AI 半导体市场上的领先地位。

HBM的优势

直接地说,HBM将会让服务器的计算能力得到提升。由于短时间内处理大量数据,AI服务器对带宽提出了更高的要求。HBM的作用类似于数据的“中转站”,就是将使用的每一帧、每一幅图像等图像数据保存到帧缓存区中,等待GPU调用。与传统内存技术相比,HBM具有更高带宽、更多I/O数量、更低功耗、更小尺寸,能够让AI服务器在数据处理量和传输速率有大幅提升。

56911fa4-2067-11ee-962d-dac502259ad0.png

来源:rambus

可以看到HBM在带宽方面有着“碾压”级的优势。如果 HBM2E 在 1024 位宽接口上以 3.6Gbps 的速度运行,那么就可以得到每秒 3.7Tb 的带宽,这是 LPDDR5 或 DDR4 带宽的 18 倍以上。

除了带宽优势,HBM可以节省面积,进而在系统中安装更多GPU。HBM 内存由与 GPU 位于同一物理封装上的内存堆栈组成。

56ac8c94-2067-11ee-962d-dac502259ad0.png

这样的架构意味着与传统的 GDDR5/6 内存设计相比,可节省大量功耗和面积,从而允许系统中安装更多 GPU。随着 HPC、AI 和数据分析数据集的规模不断增长,计算问题变得越来越复杂,GPU 内存容量和带宽也越来越大是一种必需品。H100 SXM5 GPU 通过支持 80 GB(五个堆栈)快速 HBM3 内存,提供超过 3 TB/秒的内存带宽,是 A100 内存带宽的 2 倍。

过去对于HBM来说,价格是一个限制因素。但现在大模型市场上正处于百家争鸣时期,对于布局大模型的巨头们来说时间就是金钱,因此“贵有贵的道理”的HBM成为了大模型巨头的新宠。随着高端GPU需求的逐步提升,HBM开始成为AI服务器的标配。

目前英伟达的A100及H100,各搭载达80GB的HBM2e及HBM3,在其最新整合CPU及GPU的Grace Hopper芯片中,单颗芯片HBM搭载容量再提升20%,达96GB。

AMD的MI300也搭配HBM3,其中,MI300A容量与前一代相同为128GB,更高端MI300X则达192GB,提升了50%。

预期Google将于2023年下半年积极扩大与Broadcom合作开发AISC AI加速芯片TPU也计划搭载HBM存储器,以扩建AI基础设施。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    462

    文章

    53534

    浏览量

    459055
  • DRAM
    +关注

    关注

    40

    文章

    2373

    浏览量

    188156
  • SK海力士
    +关注

    关注

    0

    文章

    1003

    浏览量

    40980

原文标题:疯抢!HBM成为AI新瓶颈!

文章出处:【微信号:WW_CGQJS,微信公众号:传感器技术】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    华为破解HBM依赖!AI推理黑科技UCM上线,9月正式开源

    8月12日,在2025金融AI推理应用落地与发展论坛上,华为公司副总裁、数据存储产品线总裁周越峰宣布,华为此次和银联联合创新,推出AI推理创新技术UCM(推理记忆数据管理其器)和管理系统的算法,这项突破性成果降低对HBM技术的依
    的头像 发表于 08-13 08:58 9694次阅读
    华为破解<b class='flag-5'>HBM</b>依赖!<b class='flag-5'>AI</b>推理黑科技UCM上线,9月正式开源

    GPU猛兽袭来!HBM4、AI服务器彻底引爆!

    电子发烧友网报道(文/黄晶晶)日前,多家服务器厂商表示因AI服务器需求高涨拉高业绩增长。随着AI服务器需求旺盛,以及英伟达GPU的更新换代,势必带动HBM供应商的积极产品推进。三星方面HBM
    的头像 发表于 06-02 06:54 6455次阅读

    AI大算力的存储技术, HBM 4E转向定制化

    电子发烧友网报道(文/黄晶晶)如今英伟达GPU迭代速度加快至每年一次,HBM存储速率如何跟上GPU发展节奏。越来越多的超大规模云厂商、GPU厂商开始转向定制化HBM。而HBM存储厂商以及晶圆代工厂也
    的头像 发表于 11-30 00:31 5001次阅读
    <b class='flag-5'>AI</b>大算力的存储技术, <b class='flag-5'>HBM</b> 4E转向定制化

    工程师的工业控制神器!35*35MMT113-i核心板

    工业自动化项目开发的李工程师兴奋地说道。近期,一款采用10层2阶盲埋孔工艺的工业核心板在工程师圈子里掀起了热潮,仅需半百的价格,却拥有小尺寸、低功耗、高性能的诸多优势,成为了工业控制领域的“香饽饽”。今天,我们就来深
    的头像 发表于 10-29 16:55 408次阅读

    紫光国芯存储芯片国产替代方案:打破DDR5/HBM芯片供应链瓶颈

    可控。市场需求与供应链现实:DDR5及HBM的技术价值与挑战AI大模型、智能计算等应用场景的爆发,对数据处理的通量和效率提出了极为苛刻的要求,这直接推动了存储技术
    的头像 发表于 10-10 16:41 1323次阅读
    紫光国芯存储芯片国产替代方案:打破DDR5/<b class='flag-5'>HBM</b>芯片供应链<b class='flag-5'>瓶颈</b>

    AIDC如何成为AI发展的关键一棒?

    AI
    脑极体
    发布于 :2025年09月21日 12:21:23

    全球首款HBM4量产:2.5TB/s带宽超越JEDEC标准,AI存储迈入新纪元

    电子发烧友网报道(文 / 吴子鹏)近日,SK 海力士宣布全球率先完成第六代高带宽存储器(HBM4)的开发,并同步进入量产阶段,成为首家向英伟达等核心客户交付 HBM4 的存储厂商。   据悉,SK
    发表于 09-17 09:29 5738次阅读

    SK海力士宣布量产HBM4芯片,引领AI存储新变革

    在人工智能(AI)技术迅猛发展的当下,数据处理与存储能力成为制约其进一步飞跃的关键因素。2025 年 9 月 12 日,韩国半导体巨头 SK 海力士宣布,已成功完成面向 AI 的超高性能存储器新产品
    的头像 发表于 09-16 17:31 1210次阅读

    突破堆叠瓶颈:三星电子拟于16层HBM导入混合键合技术

    成为了全球存储芯片巨头们角逐的焦点。三星电子作为行业的领军企业,一直致力于推动 HBM 技术的革新。近日有消息传出,三星电子准备从 16 层 HBM 开始引入混合键合技术,这一举措无疑将在存储芯片领域掀起新的波澜。 编辑 ​ 编
    的头像 发表于 07-24 17:31 505次阅读
    突破堆叠<b class='flag-5'>瓶颈</b>:三星电子拟于16层<b class='flag-5'>HBM</b>导入混合键合技术

    SK海力士HBM技术的发展历史

    SK海力士在巩固其面向AI的存储器领域领导地位方面,HBM1无疑发挥了决定性作用。无论是率先开发出全球首款最高性能的HBM,还是确立并保持其在面向AI的存储器市场的领先地位,这些成就的
    的头像 发表于 06-18 15:31 1476次阅读

    DeepSeek推动AI算力需求:800G光模块的关键作用

    力集群的部署过程中,带宽瓶颈成为制约算力发挥的关键因素,而光模块的速率跃升成为突破这一瓶颈的核心驱动力。 光模块速率跃升 随着算力集群的规模不断扩展,
    发表于 03-25 12:00

    stm32h750 cube aiai_network_create_and_init了,怎么解决?

    进去发现是卡在ai_platform_network_create,CRC也开了,要
    发表于 03-14 07:22

    不再是HBMAI推理流行,HBF存储的机会来了?

    NAND闪存和高带宽存储器(HBM)的特性,能更好地满足AI推理的需求。   HBF的堆叠设计类似于HBM,通过硅通孔(TSVs)将多个高性能闪存核心芯片堆叠,连接到可并行访问闪存子阵列的逻辑芯片上。也就是基于 SanDisk
    的头像 发表于 02-19 00:51 4312次阅读
    不再是<b class='flag-5'>HBM</b>,<b class='flag-5'>AI</b>推理流行,HBF存储的机会来了?

    美光新加坡HBM内存封装工厂破土动工

    近日,全球领先的HBM内存制造商之一——美光宣布,其位于新加坡的HBM内存先进封装工厂项目已于当地时间今日正式破土动工。这座工厂预计将于2026年正式投入运营,成为新加坡当地的首家此类工厂,标志着美
    的头像 发表于 01-09 16:02 1087次阅读

    AI兴起推动HBM需求激增,DRAM市场面临重塑

    TechInsights的最新报告揭示了AI兴起对高带宽内存(HBM)需求的巨大影响。特别是在机器学习和深度学习等数据密集型应用中,HBM的需求呈现出前所未有的高涨态势。 报告预测,到2025年
    的头像 发表于 12-26 15:07 918次阅读