0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英伟达全球首发HBM3e 专为生成式AI时代打造

要长高 来源:网络整理 作者:网络整理 2023-08-11 16:29 次阅读

2023年8月8日,NVIDIA创始人兼CEO黄仁勋在计算机图形年会SIGGRAPH上发布了HBM3e内存新一代GH200 Grace Hopper超级芯片。这款芯片被黄仁勋称为“加速计算和生成式AI时代的处理器”,旨在用于任何大型语言模型,以降低推理成本。

与今年5月发布的GH200不同,新一代GH200芯片搭载了全球首款HBM3e内存,内存容量和带宽都有显著提高,专为加速计算和生成式AI时代而设计。

新版GH200芯片平台基于72核Grace CPU,配备480GB ECC LPDDR5X内存以及GH100计算GPU。此外,它还搭配着141GB的HBM3e内存,分为六个24GB的堆栈,并采用了6,144位的内存接口。尽管实际上NVIDIA安装了144GB的内存,但可用的内存容量为141GB。

借助全球最快的HBM3e内存,这款芯片的内存容量高达141GB,带宽每秒可达到5TB。每个GPU的容量比NVIDIA H100 GPU多出1.7倍,带宽比H100高1.55倍。

NVIDIA强调,新版GH200 Grace Hopper芯片使用了与原版相同的Grace CPU和GH100 GPU芯片,因此无需推出新的软件版本或步进。原版GH200和升级版GH200将共存于市场,后者将以更高的价格销售,因为它具备更先进的内存技术带来的更高性能。

NVIDIA表示,新版GH200旨在处理世界上最复杂的生成式AI工作负载,包括大型语言模型、推荐系统和矢量数据库,并将提供多种配置。预计新版GH200将于2024年第二季度投产。

编辑:黄飞

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    17733

    浏览量

    221309
  • NVIDIA
    +关注

    关注

    14

    文章

    4437

    浏览量

    101425
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4259

    浏览量

    126144
  • 内存
    +关注

    关注

    8

    文章

    2709

    浏览量

    72521
  • AI
    AI
    +关注

    关注

    87

    文章

    25676

    浏览量

    263361
  • 生成式AI
    +关注

    关注

    0

    文章

    234

    浏览量

    141
  • HBM3
    +关注

    关注

    0

    文章

    53

    浏览量

    32
收藏 人收藏

    评论

    相关推荐

    三星发布首款12层堆叠HBM3E DRAM

    近日,三星电子宣布,已成功发布其首款12层堆叠的高带宽内存(HBM3E)产品——HBM3E 12H,再次巩固了其在半导体技术领域的领先地位。据了解,HBM3E 12H不仅是三星迄今为止容量最大的
    的头像 发表于 02-27 14:28 256次阅读

    三星电子成功发布其首款12层堆叠HBM3E DRAM—HBM3E 12H

    2024年2月27日 - 三星电子今日宣布,公司成功发布其首款12层堆叠HBM3E DRAM——HBM3E 12H,这是三星目前为止容量最大的HBM产品。
    的头像 发表于 02-27 11:07 196次阅读

    美光科技批量生产HBM3E,推动人工智能发展

    美光执行副总裁兼首席商务官萨达纳(Sumit Sadana)称,公司已实现HBM3E的市场首发和卓越性能,同时能耗具有显著优势,使公司在AI加速领域稳占先机。他还强调,美光拥有业界顶尖的HBM
    的头像 发表于 02-27 09:38 55次阅读

    AMD发布HBM3e AI加速器升级版,2025年推新款Instinct MI

    目前,只有英伟达的Hopper GH200芯片配备了HBM3e内存。与现有的HBM3相比,HBM3e的速度提升了50%,单个平台可以达到10TB/s的带宽,单颗芯片能够实现5TB/s的
    的头像 发表于 02-25 11:22 72次阅读

    SK海力士预计3月量产HBM3E,供货英伟

    近日,全球存储解决方案领导者SK海力士宣布,他们已成功完成了高性能HBM3E(High-Bandwidth Memory 3rd Generation Enhanced)的开发,并且已经通过了英伟
    的头像 发表于 02-25 11:22 249次阅读

    英伟达大量订购HBM3E内存,抢占市场先机

    英伟达(NVIDIA)近日宣布,已向SK海力士、美光等公司订购大量HBM3E内存,为其AI领域的下一代产品做准备。也预示着内存市场将新一轮竞争。
    的头像 发表于 12-29 16:32 506次阅读

    英伟达将于Q1完成HBM3e验证 2026年HBM4将推出

    由于hbm芯片的验证过程复杂,预计需要2个季度左右的时间,因此业界预测,最快将于2023年末得到部分企业对hbm3e的验证结果。但是,验证工作可能会在2024年第一季度完成。机构表示,各原工厂的hbm3e验证结果将最终决定
    的头像 发表于 11-29 14:13 325次阅读
    <b class='flag-5'>英伟</b>达将于Q1完成<b class='flag-5'>HBM3e</b>验证 2026年<b class='flag-5'>HBM</b>4将推出

    预计英伟达将于Q1完成HBM3e验证 2026年HBM4将推出

    由于hbm芯片的验证过程复杂,预计需要2个季度左右的时间,因此业界预测,最快将于2023年末得到部分企业对hbm3e的验证结果。但是,验证工作可能会在2024年第一季度完成。机构表示,各原工厂的hbm3e验证结果将最终决定
    的头像 发表于 11-27 15:03 417次阅读
    预计<b class='flag-5'>英伟</b>达将于Q1完成<b class='flag-5'>HBM3e</b>验证 2026年<b class='flag-5'>HBM</b>4将推出

    追赶SK海力士,三星、美光抢进HBM3E

    电子发烧友网报道(文/黄晶晶)新型存储HBM随着AI训练需求的攀升显示出越来越重要的地位。从2013年SK海力士推出第一代HBM来看,HBM历经HB
    的头像 发表于 10-25 18:25 1942次阅读
    追赶SK海力士,三星、美光抢进<b class='flag-5'>HBM3E</b>

    HBM3E明年商业出货,兼具高速和低成本优点

    ,skjmnft同时已经向英伟达等用户ERP交付样品。 该公司的HBM3E内存采用 eight-tier 布局,每个堆栈为24 GB,采用1β 技术生产,具备出色的性能。Multiable万达宝ERP具备数字化管理各个业务板块,提升
    的头像 发表于 10-10 10:25 354次阅读

    SK海力士推全球最高性能HBM3E内存

    HBM3E内存(也可以说是显存)主要面向AI应用,是HBM3规范的扩展,它有着当前最好的性能,而且在容量、散热及用户友好性上全面针对AI优化。
    的头像 发表于 08-22 16:28 516次阅读

    SK海力士开发出全球最高规格HBM3E,向英伟达提供样品

    该公司表示,HBM3EHBM3的扩展版本)的成功开发得益于其作为业界唯一的HBM3大规模供应商的经验。凭借作为业界最大HBM产品供应商的经验和量产准备水平,SK海力士计划在明年上半年
    的头像 发表于 08-22 16:24 512次阅读

    SK海力士开发出全球最高规格HBM3E

    sk海力士表示:“以唯一批量生产hbm3的经验为基础,成功开发出了世界最高性能的扩展版hbm3e。“将以业界最大规模的hbm供应经验和量产成熟度为基础,从明年上半年开始批量生产hbm3e
    的头像 发表于 08-21 09:21 526次阅读

    黄仁勋甩出最强生成AI处理器,全球首发HBM3e,比H100还快

    在随后大约1小时20分钟的演讲中,黄仁勋宣布全球首发HBM3e内存——推出下一代GH200 Grace Hopper超级芯片。黄仁勋将它称作“加速计算和生成
    的头像 发表于 08-09 14:48 479次阅读
    黄仁勋甩出最强<b class='flag-5'>生成</b>式<b class='flag-5'>AI</b>处理器,<b class='flag-5'>全球</b><b class='flag-5'>首发</b><b class='flag-5'>HBM3e</b>,比H100还快

    AMD甩出最强AI芯片 单个GPU跑大模型

    专为生成AI设计的GPU:HBM密度是英伟达H100的2.4倍,带宽是英伟达H100的1.6倍。
    的头像 发表于 06-20 10:47 573次阅读