0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

1.1TB HBM3e内存!NVIDIA奉上全球第一GPU:可惜无缘中国

硬件世界 来源:硬件世界 2023-11-15 16:28 次阅读

NVIDIA GPU已经在AI、HPC领域遥遥领先,但没有最强,只有更强。

现在,NVIDIA又发布了全新的HGX H200加速器,可处理AIGC、HPC工作负载的海量数据。

NVIDIA H200的一大特点就是首发新一代HBM3e高带宽内存(疑似来自SK海力士),单颗容量就多达141GB(原始容量144GB但为提高良率屏蔽了一点点),同时带宽多达4.8TB/s。

对比H100,容量增加了76%,带宽增加了43%,而对比上代A100,更是容量几乎翻番,带宽增加2.4倍。

得益于NVLink、NVSwitch高速互连技术,H200还可以四路、八路并联,因此单系统的HBM3e内存容量能做到最多1128GB,也就是1.1TB。

只是相比于AMD Instinct MI300X还差点意思,后者搭载了192GB HBM3,带宽高达5.2TB/s。

ac6b00c0-830e-11ee-939d-92fbcf53809c.jpg

性能方面,H200再一次实现了飞跃,700亿参数的Llama2大语言模型推理性能比H100提高了多达90%,1750亿参数的GTP-3模型推理性能也提高了60%,而对比前代A100 HPC模拟性能直接翻番。

八路H200系统下,FP8深度学习计算性能可以超过32PFlops,也就是每秒3.2亿亿次浮点计算,堪比一台大型超级计算机。

随着未来软件的持续升级,H200还有望继续释放潜力,实现更大的性能优势。

此外,H200还可以与采用超高速NVLink-C2C互连技术的NVIDIA Grace CPU处理器搭配使用,就组成了GH200 Grace Hopper超级芯片,专为大型HPC、AI应用而设计的计算模块。

NVIDIA H200将从2024年第二季度开始通过全球系统制造商、云服务提供商提供。

ac759440-830e-11ee-939d-92fbcf53809c.png

另外,NVIDIA第一次披露了下一代AI/HPC加速器的情况,架构代号Blackwell,核心编号GB200,加速器型号B100。

NVIDIA第一次公开确认,B100将在2024年发布,但未出更具体的时间表。

此前曝料称,B100原计划2024年第四季度推出,但因为AI需求太火爆,已经提前到第二季度,现已进入供应链认证阶段。

NVIDIA表示,B100加速器可以轻松搞定1730亿参数的大语言模型,是现在H200的两倍甚至更多。

虽然这不代表原始计算性能,但也足以令人望而生畏。

ac878bb4-830e-11ee-939d-92fbcf53809c.jpg

同时,B100还将带来更高级的HBM高带宽内存规格

回顾历史,Pascal P100、Ampere A100、Hopper H100、H200分别首发应用HBM2、HBM2e、HBM3、HBM3e。

接下来的B100肯定赶不上HBM4(规范还没定呢),但必然会在堆叠容量、带宽上继续突破,大大超越现在的4.8TB/s。

ac91c32c-830e-11ee-939d-92fbcf53809c.jpg

Blackwell架构同时也会用于图形工作站和桌面游戏,传闻有GB202、GB203、GB205、GB206、GB207等不同核心,但是对于RTX 50系列,NVIDIA始终三缄其口,几乎肯定到2025年才会发布。

2024年就将是RTX 40 SUPER系列的天下了,明年初的CES 2025首发三款型号RTX 4080 SUPER、RTX 4070 Ti SUPER、RTX 4070 SUPER。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4595

    浏览量

    101747
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4422

    浏览量

    126715
  • 堆叠
    +关注

    关注

    0

    文章

    30

    浏览量

    16527
  • AI
    AI
    +关注

    关注

    87

    文章

    26459

    浏览量

    264088
  • HBM3
    +关注

    关注

    0

    文章

    69

    浏览量

    64
  • HBM3E
    +关注

    关注

    0

    文章

    60

    浏览量

    14

原文标题:1.1TB HBM3e内存!NVIDIA奉上全球第一GPU:可惜无缘中国

文章出处:【微信号:hdworld16,微信公众号:硬件世界】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    NVIDIA预定购三星独家供应的大量12层HBM3E内存

    据悉,HBM3E 12H内存具备高达1280GB/s的宽带速率以及36GB的超大存储容量,较8层堆叠的HBM3 8H,分别提升了50%以上的带宽及容量。
    的头像 发表于 03-25 15:36 120次阅读

    什么是HBM3E内存?Rambus HBM3E/3内存控制器内核

    Rambus HBM3E/3 内存控制器内核针对高带宽和低延迟进行了优化,以紧凑的外形和高能效的封装为人工智能训练提供了最大的性能和灵活性。
    发表于 03-20 14:12 567次阅读
    什么是<b class='flag-5'>HBM3E</b><b class='flag-5'>内存</b>?Rambus <b class='flag-5'>HBM3E</b>/3<b class='flag-5'>内存</b>控制器内核

    SK海力士HBM3E内存正式量产,AI性能提升30倍,成本能耗降低96%

    同日,SK海力士宣布启动 HBM3E 内存的量产工作,并在本月下旬开始供货。自去年宣布研发仅过了七个月。据称,该公司成为全球首家量产出货HBM3E 的厂商,每秒钟能处理高达 1.18
    的头像 发表于 03-19 09:57 347次阅读

    美光量产行业领先的HBM3E解决方案,加速人工智能发展

    2024 年 3 月 4 日全球内存与存储解决方案领先供应商 Micron Technology, Inc.(美光科技股份有限公司,纳斯达克股票代码:MU)近日宣布已开始量产其 HBM3E 高带宽
    的头像 发表于 03-04 18:51 784次阅读
    美光量产行业领先的<b class='flag-5'>HBM3E</b>解决方案,加速人工智能发展

    美光开始量产行业领先的 HBM3E 解决方案,加速人工智能发展

    HBM3E 高带宽内存 解决方案。英伟达 H200 Tensor Core GPU 将采用美光 8 层堆叠的 24GB 容量 HBM3E 内存
    的头像 发表于 03-04 14:51 582次阅读
    美光开始量产行业领先的 <b class='flag-5'>HBM3E</b> 解决方案,加速人工智能发展

    美光新款高频宽记忆体HBM3E将被用于英伟达H200

    美国记忆体制造巨头美光(Micron)于26日宣布,其最新的高频宽记忆体HBM3E已正式量产。此项技术将被用于今年第2季度的英伟达(NVIDIA)H200 Tensor Core GPU,标志着
    的头像 发表于 02-28 14:17 190次阅读

    三星发布首款12层堆叠HBM3E DRAM

    近日,三星电子宣布,已成功发布其首款12层堆叠的高带宽内存HBM3E)产品——HBM3E 12H,再次巩固了其在半导体技术领域的领先地位。据了解,HBM3E 12H不仅是三星迄今为止
    的头像 发表于 02-27 14:28 439次阅读

    三星电子成功发布其首款12层堆叠HBM3E DRAM—HBM3E 12H

    2024年2月27日 - 三星电子今日宣布,公司成功发布其首款12层堆叠HBM3E DRAM——HBM3E 12H,这是三星目前为止容量最大的HBM产品。
    的头像 发表于 02-27 11:07 289次阅读

    AMD发布HBM3e AI加速器升级版,2025年推新款Instinct MI

    目前,只有英伟达的Hopper GH200芯片配备了HBM3e内存。与现有的HBM3相比,HBM3e的速度提升了50%,单个平台可以达到10TB
    的头像 发表于 02-25 11:22 178次阅读

    英伟达斥资预购HBM3内存,为H200及超级芯片储备产能

    据最新传闻,英伟达正在筹划发布两款搭载HBM3E内存的新品——包括141GB HBM3E的H200 GPU及GH200超级芯片,这也进一步说明了对于
    的头像 发表于 01-02 09:27 300次阅读

    英伟达大量订购HBM3E内存,抢占市场先机

    英伟达(NVIDIA)近日宣布,已向SK海力士、美光等公司订购大量HBM3E内存,为其AI领域的下一代产品做准备。也预示着内存市场将新一轮竞争。
    的头像 发表于 12-29 16:32 654次阅读

    追赶SK海力士,三星、美光抢进HBM3E

    电子发烧友网报道(文/黄晶晶)新型存储HBM随着AI训练需求的攀升显示出越来越重要的地位。从2013年SK海力士推出第一HBM来看,HBM历经HB
    的头像 发表于 10-25 18:25 2227次阅读
    追赶SK海力士,三星、美光抢进<b class='flag-5'>HBM3E</b>

    HBM3E明年商业出货,兼具高速和低成本优点

    )、HBM3(第四代)、HBM3E(第五代)的顺序开发。而HBM3EHBM3 的扩展(Extended)版本。   美光科技日前宣称新款HBM
    的头像 发表于 10-10 10:25 452次阅读

    SK海力士推全球最高性能HBM3E内存

    HBM3E内存(也可以说是显存)主要面向AI应用,是HBM3规范的扩展,它有着当前最好的性能,而且在容量、散热及用户友好性上全面针对AI优化。
    的头像 发表于 08-22 16:28 605次阅读

    NVIDIA CPU+GPU超级芯片大升级!

    NVIDIA官方宣布了新一代GH200 Grace Hopper超级芯片平台,全球首发采用HBM3e高带宽内存,可满足世界上最复杂的生成式AI负载需求。
    的头像 发表于 08-10 09:37 956次阅读
    <b class='flag-5'>NVIDIA</b> CPU+<b class='flag-5'>GPU</b>超级芯片大升级!