0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

GPU猛兽袭来!HBM4、AI服务器彻底引爆!

晶芯观察 来源:电子发烧友网 作者:黄晶晶 2025-06-02 06:54 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

电子发烧友网报道(文/黄晶晶)日前,多家服务器厂商表示因AI服务器需求高涨拉高业绩增长。随着AI服务器需求旺盛,以及英伟达GPU的更新换代,势必带动HBM供应商的积极产品推进。三星方面HBM3E/HBM4有了新进展,SK海力士的HBM4性能更强。同时,DDR4的陆续减产,更多资源投向了DDR5和HBM。

AI服务器带动业绩增长

戴尔科技发布2026财年第一财季(截至2025年5月2日)业绩报告。数据显示,第一财季戴尔营收达233.8亿美元,同比增长5%,non-GAAP下,营业利润为17亿美元,同比增长10%。得益于收入增长和运营支出下降,净利润同比增长13%至11亿美元。

戴尔第一财季服务器和网络收入达63亿美元,创历史新高,且市场对AI优化服务器的需求空前高涨。戴尔首席运营官杰夫·克拉克表示:“仅本季度,我们就获得了121亿美元的AI订单,超过了2025财年全年的出货量,目前我们还有144亿美元的订单积压。”

戴尔预估,第二财季AI服务器将出货约70亿美元。相比之下,戴尔过去每季AI服务器出货约为31亿美元。今年2月,戴尔预估全财年AI服务器营收预计约150亿美元,与去年度的98亿美元相比,大幅成长超50%。

富士康是英伟达AI服务器制造商,得益于AI服务器销售强劲,第一季度营收同比增长24.2%,创同期历史新高。预计第二季度将实现显著同比增长,其中AI服务器业务将呈现两位数高增长,量产爬坡速度加快。其1-3月净利润达421.2亿新台币(13.9亿美元),高于分析师平均预估的378亿新台币。

英伟达近期表示,今年下半年将转向Blackwell Ultra芯片,Blackwell Ultra GPU配备12层HBM3e显存,实现8TB/s内存带宽。2026年下半年将出货Vera Rubin。Vera CPU的内存是Grace的4.2倍,内存带宽是Grace的2.4倍。Rubin GPU由两个GPU组成一个单芯片,将配备288GB的HBM4。Vera Rubin之后名为Vera Rubin Ultra的芯片,将Vera CPU和Rubin Ultra芯片(Rubin Ultra由四个GPU组成)结合,将于2027年下半年上市。

三星、SK海力士积极备战HBM

外媒消息称,目前三星12层HBM3E产品已基本通过英伟达的DRAM单芯片认证,现阶段正在进行成品认证程序。三星原本预计6~7月完成认证,但消息称三星设定的最新目标是在今年7~8月通过英伟达的12层HBM3E品质验证测试。在一季度财报会议上,三星电子曾表示,下半年将扩大增强型12层堆叠HBM3E产品的销售。

韩国业界人士指出,若三星2025年无法供应12层HBM3E给英伟达,其2026年的HBM策略将势必要大幅修正,甚至可能放弃该HBM3E产品,转而专注第六代HBM(HBM4)。

SK海力士全球首款16层堆叠的HBM3E产品,带宽达到1.2TB/s。预计将应用于NVIDIA最新的GB300“Blackwell Ultra”AI集群产品。
HBM4进展方面,此前SK海力士向公众展示了其最新一代HBM4高带宽内存技术。根据官方介绍,SK海力士HBM4单颗容量最高可达48GB,带宽高达2.0TB/s,I/O速度达到8.0Gbps。公司计划在2025年下半年实现HBM4的大规模量产。

而三星已与多家客户合作,开发基于HBM4和增强型HBM4E的定制版本,计划于今年下半年实现量产,预计将于2026年开始商业供应。

当前,SK海力士和美光采用1b DRAM制造HBM4,而据韩媒报道,三星直指更先进的1c DRAM。三星计划在韩国华城和平泽扩大1c DRAM(第六代10nm级)生产,相关投资将在年底前启动。三星还考虑在今年底前将华城17号生产线从1z DRAM转为1c DRAM生产,以进一步扩大产能。

三星今年早些时候已在平泽第四园区(P4)启动首条1c DRAM生产线,目标月产能为3万片晶圆。若后续扩建顺利,月产能有望提升至4万片。

DDR4减产,转向DDR5/HBM

三星、美光、SK海力士从去年开始缩减DDR4产能。三星从2025年4月起停止生产1y和1z纳米工艺的8GB DDR4产品,最后订单截止日期为6月。SK海力士在2024年第3季DDR4生产比重已由第2季40%降至30%,第4季计划进一步降低至20%。而美光也通知客户将停产服务器用的旧版DDR4模块。

随着DDR4的减产,产能将转到DDR5、LPDDR5、HBM等产品上。美光在最新财报中表示,公司专注于在现有制造设备中增加HBM产能,以满足2026年的市场需求。今年4月,美光进行了业务部门重组,新成立了向超大规模云客户提供内存解决方案、为数据客户中心客户提供HBM的云内存业务部。美光称,此次重组的背景是高性能内存和存储在推动AI发展方面越来越重要。

HBM的热度也反映在设备投资上面。据SEMI最新报告,随着半导体前端及后端制程投资扩大,带动设备市场增长,2024年全球半导体制造设备投资额达1171亿美元,比上年增长10%。半导体前端设备领域,晶圆加工和其他设备投资同比增长分别9%和5%,后端封装设备和测试设备投资也分别增长25%和20%。后端主要是由于对高带宽存储器(HBM)的需求增加,导致对基本工艺设施的投资增加。

集邦咨询TrendForce预测,受强劲需求推动,2026年HBM总出货量将突破300亿吉比特,HBM4将在2026年下半年超越HBM3e,成为市场主流解决方案。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    5272

    浏览量

    136071
  • AI服务器
    +关注

    关注

    3

    文章

    190

    浏览量

    5571
  • HBM4
    +关注

    关注

    0

    文章

    58

    浏览量

    615
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    AI服务器PCBA加工技术解析:高算力时代的核心制造能力

    AI服务器PCBA加工技术也在不断升级。 从制造角度来看,AI服务器PCBA加工主要包括PCB制造、SMT贴片、插件焊接以及整板测试等多个工艺流程。由于
    的头像 发表于 04-16 22:57 106次阅读

    AI服务器大电流电感选型指南

    随着大模型训练、GPU算力集群、数据中心高密度供电快速普及,AI服务器对电源的要求已进入高功率、大电流、低损耗、高可靠时代。电感作为VRM、多相供电、OBC、PSU模块的核心器件,直接决定算力稳定性
    的头像 发表于 02-27 10:51 327次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>服务器</b>大电流电感选型指南

    消息称英伟达HBM4订单两家七三分,独缺这一家

    据韩媒报道,三星电子决定最早于本月第三周开始量产HBM4,这批产品将用于英伟达下一代人工智能计算平台“Vera Rubin”。英伟达有望在下月年度开发者大会(GTC)上首次公开搭载三星电子HBM4
    的头像 发表于 02-11 10:27 1698次阅读

    普通服务器电源与AI服务器电源的区别(上)

    引言服务器是数据中心的核心设备,其稳定运行依赖可靠的电源供应。随着AI技术的飞速发展,AI服务器大量涌现,与普通服务器在应用场景等方面存在显
    的头像 发表于 01-12 09:31 1418次阅读
    普通<b class='flag-5'>服务器</b>电源与<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电源的区别(上)

    AI大算力的存储技术, HBM 4E转向定制化

    在积极配合这一客户需求。从HMB4的加速量产、HBM4E演进到逻辑裸芯片的定制化等HBM技术正在创新中发展。   HBM4 E的 基础裸片 集成内存控制
    的头像 发表于 11-30 00:31 8844次阅读
    <b class='flag-5'>AI</b>大算力的存储技术, <b class='flag-5'>HBM</b> <b class='flag-5'>4</b>E转向定制化

    AI时代,服务器存储如何升级?

    一边是基于Darkmont的至强6+蓄势待发,另一边是基于Zen 6的EPYC Venice摩拳擦掌,海量GPU并行计算的AI服务器正在酝酿一轮全新的升级,以更高的密度、吞吐量和效能支持AI
    的头像 发表于 11-03 13:11 913次阅读

    对话|AI服务器电源对磁性元件提出的新需求

    编者按: 自ChatGPT、DeepSeek等大型AI模型应用爆发以来,市场对AI服务器的需求激增,其配套电源的发展前景已成为行业共识。目前,I服务器电源企业的出货规模仍有限,
    的头像 发表于 10-11 14:55 1259次阅读
    对话|<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电源对磁性元件提出的新需求

    美光确认HBM4将在2026年Q2量产

    2025年9月24日,美光在2025财年第四季度财报电话会议中确认,第四代高带宽内存(HBM4)将于2026年第二季度量产出货,2026年下半年进入产能爬坡阶段。其送样客户的HBM4产品传输速率突破
    的头像 发表于 09-26 16:42 2380次阅读

    全球首款HBM4量产:2.5TB/s带宽超越JEDEC标准,AI存储迈入新纪元

    海力士 HBM4 内存的 I/O 接口位宽为 2048-bit,每个针脚带宽达 10Gbps,因此单颗带宽可高达 2.5TB/s。这一里程碑不仅标志着 AI 存储正式迈入 “2TB/s 带宽时代
    发表于 09-17 09:29 6610次阅读

    SK海力士宣布量产HBM4芯片,引领AI存储新变革

    HBM4 的开发,并在全球首次构建了量产体系,这一消息犹如一颗重磅炸弹,在半导体行业乃至整个科技领域激起千层浪。 ​ 高带宽存储HBM)作为一种能够实现高速、宽带宽数据传输的下一代 DRAM 技术,自诞生以来便备受瞩目。其
    的头像 发表于 09-16 17:31 2042次阅读

    传英伟达自研HBM基础裸片

    "后的下一代AI GPU "Feynman"。   有分析指出,英伟达此举或是将部分GPU功能集成到基础裸片中,旨在提高HBMGPU的整体
    的头像 发表于 08-21 08:16 3034次阅读

    AI 服务器电源如何迭代升级?

    AI 算力需求增长的今天,AI 服务器电源正陷入 “性能瓶颈与国产替代并行、场景适配与技术创新交织” 的双重挑战。 由Big-Bit商务网、广东省磁性元器件行业协会主办的2025中国电子热点
    的头像 发表于 06-23 14:51 1700次阅读

    美光12层堆叠36GB HBM4内存已向主要客户出货

    随着数据中心对AI训练与推理工作负载需求的持续增长,高性能内存的重要性达到历史新高。Micron Technology Inc.(美光科技股份有限公司,纳斯达克股票代码:MU)宣布已向多家主要客户送样其12层堆叠36GB HBM4内存。
    的头像 发表于 06-18 09:41 1902次阅读

    硅谷GPU服务器是什么意思?使用指南详解

    硅谷GPU服务器本质上是一种IaaS(基础设施即服务)产品,它将物理服务器上的GPU资源通过虚拟化技术分割成可弹性调配的云
    的头像 发表于 06-16 09:41 733次阅读

    Cadence推出HBM4 12.8Gbps IP内存系统解决方案

    近日,Cadence(NASDAQ:CDNS)近日宣布推出业界速度最快的 HBM4 12.8Gbps 内存 IP 解决方案,以满足新一代 AI 训练和 HPC 硬件系统对 SoC 日益增长的内存带宽
    的头像 发表于 05-26 10:45 1740次阅读