电子发烧友App

硬声App

0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

电子发烧友网>今日头条>为 AI 黄金时段做好准备的高带宽内存:HBM2e 与 GDDR6

为 AI 黄金时段做好准备的高带宽内存:HBM2e 与 GDDR6

收藏

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

评论

查看更多

相关推荐

下一代高端显卡标配,容量和速度双翻倍的GDDR7登场!

大量用于渲染或计算的数据,其本身需要具备极快的数据传输速度。   如果我们除去各大AI GPU搭载的HBM的话,目前主流的消费级GPU仍在采用GDDR6GDDR6最早是由三星在2016年的HotChip提出来的,随后三星、美光和SK海力士都先后生产出了各自的GDDR6产品,而英伟达
2024-03-08 09:04:541145

英伟达、微软、亚马逊等排队求购SK海力士HBM芯片,这些国产设备厂迎机遇

电子发烧友网报道(文/李弯弯)据报道,继英伟达之后,全球多个科技巨头都在竞购SK海力士的第五代高带宽内存HBM3E。半导体行业知情人士称,各大科技巨头都已经在向SK海力士请求获取HBM3E样本,包括
2023-07-06 09:06:312126

英伟达CEO赞誉三星HBM内存,计划采购

 提及此前有人预测英伟达可能向三星购买HBM3或HBM3E等内存,黄仁勋在会上直接认可三星实力,称其为“极具价值的公司”。他透露目前已对三星HBM内存进行测试,未来可能增加采购量。
2024-03-20 16:17:24349

什么是HBM3E内存?Rambus HBM3E/3内存控制器内核

Rambus HBM3E/3 内存控制器内核针对高带宽和低延迟进行了优化,以紧凑的外形和高能效的封装为人工智能训练提供了最大的性能和灵活性。
2024-03-20 14:12:37101

GTC 2024:三大存储厂商齐展HBM3E与GDDR7技术

据悉,HBM3E广泛应用于Blackwell加速器、NVIDIA H200、GH200芯片;AMD Instinct MI300A / X亦有可能采用其技术。至于GDDR7,有望在RTX 50系列显卡中得到应用。
2024-03-20 10:25:5985

SK海力士HBM3E内存正式量产,AI性能提升30倍,成本能耗降低96%

同日,SK海力士宣布启动 HBM3E 内存的量产工作,并在本月下旬开始供货。自去年宣布研发仅过了七个月。据称,该公司成为全球首家量产出货HBM3E 的厂商,每秒钟能处理高达 1.18TB 的数据。此项数据处理能力足以支持在一小时内处理多达约 33,800 部全高清电影。
2024-03-19 09:57:44251

四川长虹回应帮华为代工 HBM芯片备受关注

的CPU/GPU内存芯片因为AI而全面爆发,多家存储企业的产能都已经跟不上。HBM英文全称High Bandwidth Memory,翻译过来即是高带宽内存HBM具有更高带宽、更多I/O数量、更低功耗、更小尺寸的优势。不但能够减少组件占用空间和外部存储器要求;而且能够提供更快
2024-03-18 18:42:552299

GDDR和DDR代表什么?GDDR和DDR内存有什么区别?

DDR 代表双倍数据速率double data rate,GDDR 代表图形双倍数据速率graphics double data rate。
2024-03-17 09:24:53237

雷军官宣小米汽车发布日3月28日 小米汽车回应价格战:已做好准备

雷军官宣小米汽车发布日 小米汽车回应价格战:已做好准备 小米汽车什么时候发布一直被猜测,现在终于揭晓谜底了,雷军官宣小米汽车发布日就在3月28日。 3月12日早上九点,雷军发布微博称,“3月28
2024-03-12 16:38:45239

雷军官宣小米汽车发布日 价格战已做好准备

雷军官宣小米汽车发布日,3月28日小米SU7正式见面。小米汽车回应价格战:已做好准备
2024-03-12 14:40:45743

英伟达、AMD新款显卡或仍配备2GB GDDR7显存

据悉,现行GDDR6显存每模块采用8GB显存容量,对此,@kopite7kimi援引内部消息称,英伟达即将发布的GeForce RTX 5090显卡并无内存翻倍的可能性。
2024-03-08 14:54:02118

三星电子发布业界最大容量HBM

三星电子近日宣布,公司成功研发并发布了其首款12层堆叠HBM3E DRAM,即HBM3E 12H,该产品在带宽和容量上均实现了显著的提升,这也意味着三星已开发出业界迄今为止容量最大的新型高带宽存储器(HBM)。
2024-03-08 10:10:51158

HBM良率问题影响AI芯片产量

在以台积电与三星代工为首的诸多企业中,长期以来,保持硅晶圆高效产出的良品率一直是个难题。然而,这个难关如今已经蔓延至HBM行业。
2024-03-07 09:41:25204

美光科技开始量产HBM3E高带宽内存解决方案

美光科技股份有限公司(Micron Technology, Inc.)是全球内存与存储解决方案的领先供应商,近日宣布已经开始量产其HBM3E高带宽内存解决方案。这一重要的里程碑式进展再次证明了美光在内存技术领域的行业领先地位。
2024-03-05 09:16:28307

美光量产行业领先的HBM3E解决方案,加速人工智能发展

2024 年 3 月 4 日全球内存与存储解决方案领先供应商 Micron Technology, Inc.(美光科技股份有限公司,纳斯达克股票代码:MU)近日宣布已开始量产其 HBM3E 高带宽
2024-03-04 18:51:41749

美光开始量产行业领先的 HBM3E 解决方案,加速人工智能发展

HBM3E 高带宽内存 解决方案。英伟达 H200 Tensor Core GPU 将采用美光 8 层堆叠的 24GB 容量 HBM3E 内存,并于 2024 年第二季度开始出货。美光通过这一
2024-03-04 14:51:51548

HBMHBM2、HBM3和HBM3e技术对比

AI服务器出货量增长催化HBM需求爆发,且伴随服务器平均HBM容量增加,经测算,预期25年市场规模约150亿美元,增速超过50%。
2024-03-01 11:02:53203

美光抢滩市场,HBM3E量产掀起技术浪潮

除了GPU,另一个受益匪浅的市场就是HBM了。HBM是一种高性能的内存技术,能够提供比传统DRAM更高的带宽和更低的延迟,这使得其在需要大量数据传输和处理的人工智能应用中具有显著优势。
2024-02-29 09:43:0598

梯云物联:革新未来电梯物联网行业,您做好准备了吗?

解析电梯物联网技术:革新未来电梯行业,您已做好准备了吗?|梯云物联网 据政府有关部门统计,截止2014年底,全国在用电梯的数量已经达到360万台。电梯是一种特殊的垂直交通工具,这么多的电梯每天要运送数千万的乘客上上下下,电梯的安全运行,可靠运行已经成为社会关心的一大话题。
2024-02-28 10:03:11110

AIGC热度高涨,SK海力士今年HBM已经售罄,国产厂商有哪些机会?

HBM业绩翻红 HBM是High Bandwidth Memory的缩写,也就是高带宽内存。得益于3D和2.5D系统级封装(SiP)和硅
2024-02-28 00:16:002230

AMD MI300加速器将支持HBM3E内存

据手机资讯网站IT之家了解,MI300加速器配备了HBM3内存模块,并面向HBM3E进行了重新设计。另外,该公司在供应链交付合作方面颇为深入,不仅与主要的存储器供应商建立了稳固的联系,同时也与如台积电等重要的基板供应商以及OSAT社区保持着紧密的合作关系。
2024-02-27 15:45:05152

三星发布首款12层堆叠HBM3E DRAM

近日,三星电子宣布,已成功发布其首款12层堆叠的高带宽内存HBM3E)产品——HBM3E 12H,再次巩固了其在半导体技术领域的领先地位。据了解,HBM3E 12H不仅是三星迄今为止容量最大的HBM产品,其性能也实现了质的飞跃。
2024-02-27 14:28:21330

三星发布首款12层堆叠HBM3E DRAM,带宽高达1280GB/s,容量达36G

“随着AI行业对大容量HBM的需求日益增大,我们的新产品HBM3E 12H应运而生,”三星电子内存规划部门Yongcheol Bae解释道,“这个存储方案是我们在人人工智能时代所推崇的HBM核心技术、以及创新堆叠技术的成果展示。”
2024-02-27 10:36:25203

AMD发布HBM3e AI加速器升级版,2025年推新款Instinct MI

目前,只有英伟达的Hopper GH200芯片配备了HBM3e内存。与现有的HBM3相比,HBM3e的速度提升了50%,单个平台可以达到10TB/s的带宽,单颗芯片能够实现5TB/s的传输速率,内存容量高达141GB。
2024-02-25 11:22:42121

SK海力士拟在美国建厂生产HBM芯片

韩国存储芯片巨头SK海力士计划在美国印第安纳州投资兴建一座先进封装工厂,专注于生产高带宽内存HBM)芯片。这一举措旨在与英伟达(NVIDIA)的AI GPU进行深度整合,共同推动美国本土的AI芯片制造能力。
2024-02-06 16:10:29663

SK海力士加大高带宽内存生产投入

SK海力士近日宣布,将进一步扩大高带宽内存生产设施的投资,以满足高性能AI产品市场的不断增长需求。
2024-01-29 16:54:44428

三星将展示16Gb GDDR7技术,重点关注PAM3优化TRX均衡和ZQ校准

该款高性能的 DRAM 采用 PAM3 编码技术,兼具 PAM4 和 NRZ 的优点,相较于 NRZ,它能够以更高的数据传输率运行,且无需过高的内存总线频率,表现优于 GDDR6,能耗及成本则低于 GDDR6X。
2024-01-29 10:13:44258

AI ready是什么?文明的发展需要做好准备

接入”那么简单,还需要做好AI ready”。 AI ready及其重要性 AI ready这个概念最早是由飞书提出的,在去年11月末的飞书7发布会上,飞书CEO谢欣提到:“在AI充满想象力的能力面前,企业需要先做到‘AI Ready’。” 这是因为AI大模型虽然有常
2024-01-17 10:19:06229

深度解析HBM内存技术

HBM作为基于3D堆栈工艺的高性能DRAM,打破内存带宽及功耗瓶颈。HBM(High Bandwidth Memory)即高带宽存储器,通过使用先进封装(如TSV硅通孔、微凸块)将多个DRAM芯片进行堆叠,并与GPU一同进行封装,形成大容量、高带宽的DDR组合阵列。
2024-01-02 09:59:131323

英伟达斥资预购HBM3内存,为H200及超级芯片储备产能

据最新传闻,英伟达正在筹划发布两款搭载HBM3E内存的新品——包括141GB HBM3E的H200 GPU及GH200超级芯片,这也进一步说明了对于HBM内存的大量需求。
2024-01-02 09:27:04231

英伟达大量订购HBM3E内存,抢占市场先机

英伟达(NVIDIA)近日宣布,已向SK海力士、美光等公司订购大量HBM3E内存,为其AI领域的下一代产品做准备。也预示着内存市场将新一轮竞争。
2023-12-29 16:32:50584

AI大模型不断拉高上限,内存控制器IP提早部署,力拱HBM3E的到来

数据量、复杂度在增加,HBM内存被彻底带火。这种高带宽高速的内存十分适合于AI训练场景。最近,内存芯片厂商已经不约而同地切入HBM3E竞争当中。内存控制器IP厂商Rambus也率先发布HBM3内存
2023-12-13 15:33:48885

HBM抢单大战,才刚刚拉开帷幕

市场非常吃香的 HBM 内存。   AI 芯片带来的 HBM 热潮   在 AI 芯片的设计中,除了需要先进工艺和先进封装在有限的面积下提供足够的算力和扩展性外,被提及最多的一个问题就是内存墙。过去内存墙的问题在AI 计算还不盛行的时代并不突出,而且 HBM 当时还被视作高
2023-12-13 01:27:001179

大模型时代必备存储之HBM进入汽车领域

大模型时代AI芯片必备HBM内存已是业内共识,存储带宽也成为AI芯片仅次于算力的第二关健指标,甚至某些场合超越算力,是最关键的性能指标,而汽车行业也开始出现HBM内存
2023-12-12 10:38:11219

新火种AIAI时代可能遇到的伦理问题,你做好准备了吗?

AI会对未来的两性关系产生怎样的影响?家庭概念会就此消失吗?”
2023-12-12 10:11:14209

Rambus通过9.6 Gbps HBM3内存控制器IP大幅提升AI性能

Gbps 的性能,可支持 HBM3 标准的持续演进。相比 HBM3 Gen1 6.4 Gbps 的数据速率,Rambus HBM3 内存控制器的数据速率提高了 50%,总内存吞吐量超过 1.2 TB/s,适用于推荐系统的训练、生成式 AI 以及其他要求苛刻的数据中心工作负载。
2023-12-07 14:16:06329

Rambus通过9.6 Gbps HBM3内存控制器IP大幅提升AI性能

为增强AI/ML及其他高级数据中心工作负载打造的 Rambus 高性能内存 IP产品组合 高达9.6 Gbps的数据速率,支持HBM3内存标准的未来演进 实现业界领先的1.2 TB/s以上内存吞吐量
2023-12-07 11:01:13115

大算力芯片里的HBM,你了解多少?

最近,随着人工智能行业的高速崛起,大算力芯片业成为半导体行业为数不多的热门领域HBM(高宽带内存:High-bandwidthmemory)作为大算力芯片里不可或缺的组成部分,也因此走入了行业
2023-12-05 16:14:18553

异构专用AI芯片的黄金时代

异构专用AI芯片的黄金时代
2023-12-04 16:42:26225

AI从GPU席卷至MCU,内存的重要性与算力等同

针对AI进行优化的内存。   高性能AI芯片需要超高带宽内存   无论是英伟达最新的服务器GPU,还是一众初创公司推出的AI加速器,我们都可以看到HBM出现的越来越频繁,比如英伟达H100、谷歌TPU等等。美光、SK海力士和三星等厂商都在布局这类超
2023-11-29 01:04:001296

浅谈DRAM的常用封装技术

目前,AI服务器对HBM(高带宽内存)的需求量越来越大,因为HBM大大缩短了走线距离,从而大幅提升了AI处理器运算速度。HBM经历了几代产品,包括HBMHBM2、HBM2e和HMB3,最新的HBM3e刚出样品。
2023-11-28 09:49:10408

机构:未来四年HBM市场将飙升52%

omdia首席研究员Jung Sung-kong表示:“dram产业正在充分享受生成式AI带来的好处。今后dram产业的地形图将发生巨大变化。”在生成型ai蓬勃发展的情况下,ai和机器学习技术将成为中长期牵引d内存需求的要素,hbm市场目前正在显示出较大的增长趋势。
2023-11-24 11:29:32260

通过 Minitab 为双十一的物流成功做好准备

今年的双十一已过!现在,正是供应链领军者检查供应链中各个职能的时候,以下是 Minitab 帮助供应链经理为物流做好准备: 预测模型: Minitab 提供了一系列预测模型,包括移动平均线、指数平滑
2023-11-20 10:17:33150

AMD Radeon Pro W7700显卡评测

GPU核心旁边是8颗SK海力士GDDR6显存,频率18GHz,单颗容量2GB,8颗组成256Bit 16GB,显存带宽576GB/s。
2023-11-17 14:57:42204

1.1TB HBM3e内存!NVIDIA奉上全球第一GPU:可惜无缘中国

NVIDIA H200的一大特点就是首发新一代HBM3e高带宽内存(疑似来自SK海力士),单颗容量就多达141GB(原始容量144GB但为提高良率屏蔽了一点点),同时带宽多达4.8TB/s。
2023-11-15 16:28:13358

一文解析HBM技术原理及优势

HBM技术是一种基于3D堆叠工艺的高性能DRAM,它可以为高性能计算、人工智能、数据中心等领域提供高带宽、高容量、低延迟和低功耗的存储解决方案。本文将介绍HBM技术的原理、优势、应用和发展趋势。
2023-11-09 12:32:524331

追赶SK海力士,三星、美光抢进HBM3E

电子发烧友网报道(文/黄晶晶)新型存储HBM随着AI训练需求的攀升显示出越来越重要的地位。从2013年SK海力士推出第一代HBM来看,HBM历经HBM1、HBM2、HBM2EHBM3、HBM
2023-10-25 18:25:242087

HBM3E明年商业出货,兼具高速和低成本优点

    据了解,HBM(High Bandwidth Memory)是指垂直连接多个DRAM,能够提升数据处理速度,HBM DRAM产品以 HBM(第一代)、HBM2(第二代)、HBM2E(第三代
2023-10-10 10:25:46400

2024 年最重要的10个人工智能趋势,每个人都必须做好准备

年最重要的10个人工智能趋势,每个人都必须为它们做好准备。希望到2024年,我们能在解决围绕这项技术的一些棘手问题上取得进展。虽然近年来,由于成本和易用性而导致的
2023-10-10 10:08:12409

华邦推出为边缘AI带来超高带宽内存的CUBE架构

全球半导体存储解决方案领导厂商华邦电子今日宣布推出一项强大的内存赋能技术,可助力客户在主流应用场景中实现经济实惠的边缘 AI 计算。
2023-09-27 10:49:231517

华邦推出创新CUBE架构 为边缘AI带来超高带宽内存

(半定制化超高带宽元件) 可大幅优化内存技术,可实现在混合云与边缘云应用中运行生成式AI的性能。   CUBE增强了前端3D结构的性能,例如chip-on-wafer(CoW
2023-09-27 10:44:01136

汤谷智能首家在国产工艺线(n+1)完成HBM IP的设计实现

封装的新型内存器件。在采用HBM芯粒集成方案的智能计算芯片中,HBM芯粒通过硅转接板与计算芯粒实现2.5D封装互联,具有高带宽、高吞吐量、低延迟、低功耗、小型化等技术优势,可以满足AI大模型高访存的需求,成为当前高性能智能计算芯片最主要的技术路线,其中核心技术是计算芯粒与
2023-09-20 14:36:32664

BM1684编解码性能是同时支持32路解码和2路编码吗?内存大小和内存带宽会不会成为瓶颈?

BM1684编解码性能是同时支持32路解码和2路编码吗?内存大小和内存带宽会不会成为瓶颈?
2023-09-19 06:33:40

HBM芯片市场前景可期,三星2023年订单同比增长一倍以上

sk海力士负责市场营销的管理人员表示:“一台ai服务器至少需要500gb的hbm带宽内存和2tb的ddr5内存。人工智能是拉动内存需求的强大力量。”sk海力士预测,到2027年,随着人工智能的发达,hbm市场将综合年均增长82%。
2023-09-12 11:32:59566

接口IP占比去年升至25%,智能手机推动力显著

在2018年和2022年,新的驱动将成为数据中心应用,包括服务器、数据中心、有线和无线网络和人工智能。所有这些应用程序在速度和容量方面都需要越来越高的带宽。这将转换为高速内存控制器(ddr5、hbmgddr6)和接口协议(pcie5、400g和800g以太网,112gserdes)的更快实现。
2023-09-05 14:35:21358

不只是GPU,内存厂商们的AI野望

的阻碍之一,在计算量井喷的今天,已经变得愈发难以忽视。所以,在今年的HotChips大会上,内存厂商们也竞相展示自己的内存技术在AI计算上的优势。   三星   三星作为最早一批开始跟进存内计算的公司,早在两年前的HotChips33上,就展示了HBM2-PIM的技
2023-09-01 00:18:00910

做好准备,拥抱生成式 AI 的世界

生成式 AI 的时代已经来临。从 2022 年 到 2024 年,生成式 AI 的采用率将增长近两倍。在未来两到三年内,对生成式 AI 的投资预计将增长四倍。 在生成式 AI 洪流的裹挟之下,企业
2023-08-24 18:15:04325

VMware 与 NVIDIA 为企业开启生成式 AI 时代

全新 VMware Private AI Foundation With NVIDIA 帮助企业为生成式 AI 在业务中的应用做好准备;该平台将在数据隐私性、安全性和可控性方面提供进一步支持
2023-08-23 19:10:07444

100G以太网为8K有效负载做好准备

清将捕捉的像素数量增加到 7680x3840,一个 24 位 8Kp60 未压缩视频流的带宽可能超过 40 Gbps(图 1)。这一数字较
2023-08-23 08:10:01533

SK海力士推全球最高性能HBM3E内存

HBM3E内存(也可以说是显存)主要面向AI应用,是HBM3规范的扩展,它有着当前最好的性能,而且在容量、散热及用户友好性上全面针对AI优化。
2023-08-22 16:28:07559

SK海力士开发出全球最高规格HBM3E,向英伟达提供样品

该公司表示,HBM3E(HBM3的扩展版本)的成功开发得益于其作为业界唯一的HBM3大规模供应商的经验。凭借作为业界最大HBM产品供应商的经验和量产准备水平,SK海力士计划在明年上半年量产HBM3E,巩固其在AI内存市场无与伦比的领导地位。
2023-08-22 16:24:41541

Versal™ 自适应 SoC 助力 8K 处理 – 为 8K 做好准备(3)

Rob Green 专业音视频、广播与消费业务高级经理 Versal 自适应 SoC 为 8K 处理做好准备 图1:Versal 器件图 为了获取和传输 8K 视频,接口必须提供 4 倍于其 4K
2023-08-16 08:10:04371

继续加大产量,HBM内存厂商的新宠儿

电子发烧友网报道(文/周凯扬)随着AI芯片逐渐成为半导体市场的香饽饽,与之相关的附属产物也在不断升值,被一并炒热。就拿高带宽内存HBM来说,无论是英伟达的GPU芯片,还是初创公司打造的AI芯片
2023-08-15 01:14:001097

Luca Mezzalira:你真的为Serverless X AI做好准备了吗?

Luca Mezzalira:“无服务器”这一概念经过多年演变,如今我们称其是一种策略。用户采取无服务器策略时可以将同质化的繁重工作交给亚马逊云科技,自己专注编写开发新功能,满足你的客户需求。
2023-08-11 16:40:03256

NVIDIA CPU+GPU超级芯片大升级!

NVIDIA官方宣布了新一代GH200 Grace Hopper超级芯片平台,全球首发采用HBM3e高带宽内存,可满足世界上最复杂的生成式AI负载需求。
2023-08-10 09:37:12892

黄仁勋甩出最强生成式AI处理器,全球首发HBM3e,比H100还快

在随后大约1小时20分钟的演讲中,黄仁勋宣布全球首发HBM3e内存——推出下一代GH200 Grace Hopper超级芯片。黄仁勋将它称作“加速计算和生成式AI时代的处理器”。
2023-08-09 14:48:00503

英伟达a100和a800参数对比

| | 内存类型 | HBM2 | GDDR6 | | 内存容量 | 40GB | 48GB | | 内存带宽 | 1.6 TB/s | 1.3 TB/s |  TDP | 400W | 320W
2023-08-07 18:00:359840

业界最快、容量最高的HBM

容量HBM3 Gen2内存样品,其带宽超过1.2TB/s,引脚速度超过9.2Gb/s,相比目前出货的HBM3解决方案提高了50%。美光的HBM3 Gen2产品的每瓦性能是前几代产品的2.5倍,据称
2023-08-07 17:38:07587

Gaudi2夹层卡HL-225B数据表

的深度学习工作负载,同时用户提供了优化和创新以满足其需求的灵活性。lt还集成了96 GB HBM2E内存和48 MBSRAM,并支持600瓦的卡级TDP。 Gaudi2处理器提供了无与伦比的2.1
2023-08-04 07:54:01

美光推出性能更出色的大容量高带宽内存 (HBM) 助力生成式人工智能创新

(美光科技股份有限公司,纳斯达克股票代码:MU)今日宣布,公司已开始出样业界首款8层堆叠的24GB容量第二代HBM3内存,其带宽超过1.2TB/s,引脚速率超过9.2Gb/s,比当前市面上现有的HBM3解决方案
2023-08-01 15:38:21488

美光推出业界首款8层堆叠的24GB容量第二代HBM3内存

Micron Technology Inc.(美光科技股份有限公司,纳斯达克股票代码:MU)今日宣布,公司已开始出样业界首款 8 层堆叠的 24GB 容量第二代 HBM3 内存,其带宽超过
2023-07-28 11:36:40535

三星开发出业界首款GDDR7 DRAM显存

与目前的GDDR6 DRAM相比,GDDR7的每引脚带宽从24Gbps提升至32Gbps,总带宽可达1.5TB/s。这款新产品采用了脉冲幅度调制(PAM3)信令的方法,取代了前几代产品中非归零(NRZ)信令方案,得以提升带宽
2023-07-24 11:09:48194

三星计划为英伟达AI GPU提供HBM3和2.5D封装服务;传苹果悄悄开发“Apple GPT” 或将挑战OpenAI

与包括三星在内的潜在供应商进行交易谈判。 目前,英伟达的A100、H100和其他AI GPU均使用台积电进行晶圆制造和2.5封装工作的前端工艺。英伟达AI GPU使用的HBM(高带宽内存)芯片由SK海力士独家提供。然而,台积电没有能力处理这些芯片所需的2.5D封装的所有工作量。消息人士称,英
2023-07-20 17:00:02404

【机器视觉】欢创播报 | 三星开发出业界首款GDDR7显存

行验证。与目前的GDDR6 DRAM相比,GDDR7的每引脚带宽从24Gbps提升至32Gbps,总带宽可达1.5TB/s。这款新产品采用了脉冲幅度调制(PAM3)信令的方法,取代了前几代产品中非归零
2023-07-20 11:27:49498

三星推出其首款GDDR7 释放下一代显存性能潜力

三星最新32Gbps GDDR7将进一步强化人工智能、高性能计算和汽车等的应用能力 与上一代24Gbps GDDR6 相比,GDDR7性能提升1.4倍,能效提高20%
2023-07-19 10:27:16782

HBM的崛起!

时任AMD CEO的苏姿丰表示,HBM采用堆叠式设计实现存储速度的提升,大幅改变了GPU逻辑结构设计,DRAM颗粒由“平房设计”改为“楼房设计”,所以HBM显存能够带来远远超过当前GDDR5所能够提供的带宽上限,其将率先应用于高端PC市场,和英伟达(NVIDIA)展开新一轮的竞争。
2023-07-13 15:18:24497

AI加速存储芯片反转 HBM芯片崛起

HBM(High Bandwidth Memory)是一种创新的CPU/GPU内存芯片,它通过堆叠多个DDR芯片并与GPU封装在一起,实现了高容量和高位宽的DDR组合阵列。
2023-07-13 14:53:051111

疯抢!HBM成为AI新瓶颈!

SK海力士正忙于处理来自客户的大量HBM3E样品请求。英伟达首先要求提供样品,这次的出货量几乎是千钧一发。这些索取样品的客户公司可能会在今年年底收到样品。全球领先的GPU公司Nvidia此前曾向SK海力士供应HBM3,并已索取HBM3E样品。各大科技公司都在热切地等待 SK 海力士的样品。
2023-07-12 14:34:39684

大模型市场,不止带火HBM

近日,HBM成为芯片行业的火热话题。据TrendForce预测,2023年高带宽内存HBM)比特量预计将达到2.9亿GB,同比增长约60%,2024年预计将进一步增长30%。
2023-07-11 18:25:08702

竞逐HBM,三星竞争力在下降?

7月5日,在三星每周三举行的员工内部沟通活动期间,三星电子负责半导体业务的 DS 部门总裁 Kyung Kye-hyun 表示,“三星高带宽内存 (HBM) 产品的市场份额仍超过 50%”,他驳斥了有关该公司内存竞争力正在下降的担忧。
2023-07-10 10:56:03516

预计未来两年HBM供应仍将紧张

据业内消息人士透露,随着人工智能(AI)服务器需求的激增,高带宽内存(HBM)的价格开始上涨。
2023-07-07 12:23:41387

HBM内存:韩国人的游戏

HBM技术之下,DRAM芯片从2D转变为3D,可以在很小的物理空间里实现高容量、高带宽、低延时与低功耗,因而HBM被业界视为新一代内存解决方案。
2023-06-30 16:31:33625

Rambus GDDR6 PHY 赋能AI服务器

GDDR通常指的是用在显卡上的内存,本质上还是双倍速率同步动态随机存储器,它是为了设计高端显卡而特别设计的高性能 DDR 存储器规格,其有专属的工作频率、时钟频率、电压,因此与市面上标准的 DDR 存储器有所差异
2023-06-26 14:41:25287

AMD甩出最强AI芯片 单个GPU跑大模型

专为生成式AI设计的GPU:HBM密度是英伟达H100的2.4倍,带宽是英伟达H100的1.6倍。
2023-06-20 10:47:47605

AI时代,谁能比GDDR性能更高?

DDR存储器的设计延迟极低,它的目的是尽可能快地传输少量缓存数据,来配合CPU进行串行计算。而显卡多为并行任务,有大量重复存取需求,但它对于延时的要求没有CPU那么高。于是,具有更大带宽和更高频率的GDDR出现了。
2023-06-09 11:50:16165

缓解AI推理算力焦虑,高带宽GDDR6成杀手锏?

据 Rambus IP 核产品营销高级总监 Frank Ferro 分享,AI 推理应用对带宽的需求通常在 200 到 500Gb/s 的范围之间波动,每一个 GDDR6 设备的带宽都可以达到
2023-06-02 15:49:16290

活动预告 | 2023高端集成电路IP技术研讨会·北京站,芯动邀您共聚!

? 从DDR5/4、LPDDR5/5X到GDDR6/6X、 HBM2e/3,以及PCIe5/6、USB3.2/4等多标
2023-05-30 18:45:01397

Rambus提升GDDR6带宽,以应对边缘计算挑战

HBM(高带宽内存)于 2013 年推出,是一种高性能 3D 堆叠 SDRAM架构。如其名称所述,HBM最重要的是带宽更高,尽管HBM内存都以相对较低的数据速率运行,但其通道数更多。例如,以3.6
2023-05-29 09:34:57312

AI推理打造高达24Gb/s的GDDR6 PHY,Rambus全面支持中国市场的AI升级

,但对成本和功耗更为敏感。   在AI推理应用越来越多的趋势下,Rambus率先研判与推出GDDR6 IP产品组合。Rambus IP核产品营销高级总监Frank Ferro先生表示,作为更加理想的方案,GDDR6有着高带宽以及低时延的特性,能够帮助边缘端更好地处理数据。  
2023-05-26 16:38:421161

面向图形、网络和HPC的下一代内存技术

在过去的十年中,GDDR5已成为行业标准,并在所有面向图形的技术中占据重要地位。GDDR5 专注于使用更多功率来实现更高的时钟速度。GDDR5 芯片以单层形式直接连接到显卡,这意味着添加更多内存涉及在显卡上水平展开。因此,功耗和外形尺寸一直是主要问题。HBM 已成为打破所有加工瓶颈的替代方案。
2023-05-26 11:44:47483

HBM性能验证变得简单

HBM2E(高带宽内存)是一种高性能 3D 堆叠 DRAM,用于高性能计算和图形加速器。它使用更少的功率,但比依赖DDR4或GDDR5内存的显卡提供更高的带宽。由于 SoC 及其附属子系统(如内存子系统、互连总线和处理器)结构复杂,验证内存的性能和利用率对用户来说是一个巨大的挑战。
2023-05-26 10:24:38437

HBM3:用于解决高密度和复杂计算问题的下一代内存标准

在这个技术革命的时代,人工智能应用程序、高端服务器和图形等领域都在不断发展。这些应用需要快速处理和高密度来存储数据,其中高带宽内存HBM) 提供了最可行的内存技术解决方案。
2023-05-25 16:39:333398

Rambus推出提升GDDR6内存接口性能的Rambus GDDR6

凭借Rambus GDDR6 PHY所实现的新一级性能,设计人员可以为带宽要求极为苛刻的工作负载提供所需的带宽。和我们领先的HBM3内存接口一样,这项最新成就表明了我们不断致力于开发最先进的内存性能,以满足生成式AI等先进计算应用的需求。
2023-05-17 14:22:36554

Rambus通过业界领先的24Gb/s GDDR6 PHY提升AI性能

GDDR6能够为人工智能/机器学习(AI/ML)、图形和网络应用提供高成本效益、高带宽内存性能。   Rambus首席运营官范贤志
2023-05-17 13:47:04313

Occamy RISC-V 前景如何

位 FPU,以及两颗来自美光的 16GB HBM2e 内存。处理器的内核通过中介层实现互连,双块 CPU 可提供 0.75 FP64 TFLOPS 的性能和 6 FP8 TFLOPS 算力。那么Occamy RISC-V 前景如何呢?
2023-05-13 08:44:36

活动预告 | 2023高端集成电路IP技术研讨会·厦门站,芯动邀您共聚!

? 从DDR5/4、LPDDR5/5X到GDDR6/6X、 HBM2e/3,以及PCIe5/6、USB3.2/4等多标
2023-05-12 14:55:02356

大算力模型,HBM、Chiplet和CPO等技术打破技术瓶颈

HBM 使用多根数据线实现高带宽,完美解决传统存储效率低的问题。HBM 的核心原理和普通的 DDR、GDDR 完全一样,但是 HBM 使用多根数据线实现了高带宽HBM/HBM2 使用 1024 根数据线传输数据
2023-04-16 10:42:243537

AI算力发展如何解决内存墙和功耗墙问题

“存”“算”性能失配,内存墙导致访存时延高,效率低。内存墙,指内存的容量或传输带宽有限而严重限制 CPU 性能发挥的现象。内存的性能指标主要有“带宽”(Bandwidth)和“等待时间”(Latency)。
2023-04-12 13:53:221005

GPT模型推动存储厂商加速PIM进程

SK海力士在近期提出了他们的首个PIM方案,AiM。AiM是一个基于GDDR6的存内计算方案,专门为了加速内存负载密集的机器学习应用而设计。而GDDR6作为当下GPU产品的主要显存形式之一,提供了足够的带宽,但并没有提供额外的计算能力,更别说卸载CPU、GPU的运算任务了。
2023-04-10 10:56:49528

已全部加载完成