0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

1.1TB HBM3e内存!NVIDIA奉上全球第一GPU:可惜无缘中国

硬件世界 来源:硬件世界 2023-11-15 16:28 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

NVIDIA GPU已经在AI、HPC领域遥遥领先,但没有最强,只有更强。

现在,NVIDIA又发布了全新的HGX H200加速器,可处理AIGC、HPC工作负载的海量数据。

NVIDIA H200的一大特点就是首发新一代HBM3e高带宽内存(疑似来自SK海力士),单颗容量就多达141GB(原始容量144GB但为提高良率屏蔽了一点点),同时带宽多达4.8TB/s。

对比H100,容量增加了76%,带宽增加了43%,而对比上代A100,更是容量几乎翻番,带宽增加2.4倍。

得益于NVLink、NVSwitch高速互连技术,H200还可以四路、八路并联,因此单系统的HBM3e内存容量能做到最多1128GB,也就是1.1TB。

只是相比于AMD Instinct MI300X还差点意思,后者搭载了192GB HBM3,带宽高达5.2TB/s。

ac6b00c0-830e-11ee-939d-92fbcf53809c.jpg

性能方面,H200再一次实现了飞跃,700亿参数的Llama2大语言模型推理性能比H100提高了多达90%,1750亿参数的GTP-3模型推理性能也提高了60%,而对比前代A100 HPC模拟性能直接翻番。

八路H200系统下,FP8深度学习计算性能可以超过32PFlops,也就是每秒3.2亿亿次浮点计算,堪比一台大型超级计算机。

随着未来软件的持续升级,H200还有望继续释放潜力,实现更大的性能优势。

此外,H200还可以与采用超高速NVLink-C2C互连技术的NVIDIA Grace CPU处理器搭配使用,就组成了GH200 Grace Hopper超级芯片,专为大型HPC、AI应用而设计的计算模块。

NVIDIA H200将从2024年第二季度开始通过全球系统制造商、云服务提供商提供。

ac759440-830e-11ee-939d-92fbcf53809c.png

另外,NVIDIA第一次披露了下一代AI/HPC加速器的情况,架构代号Blackwell,核心编号GB200,加速器型号B100。

NVIDIA第一次公开确认,B100将在2024年发布,但未出更具体的时间表。

此前曝料称,B100原计划2024年第四季度推出,但因为AI需求太火爆,已经提前到第二季度,现已进入供应链认证阶段。

NVIDIA表示,B100加速器可以轻松搞定1730亿参数的大语言模型,是现在H200的两倍甚至更多。

虽然这不代表原始计算性能,但也足以令人望而生畏。

ac878bb4-830e-11ee-939d-92fbcf53809c.jpg

同时,B100还将带来更高级的HBM高带宽内存规格。

回顾历史,Pascal P100、Ampere A100、Hopper H100、H200分别首发应用HBM2、HBM2e、HBM3、HBM3e。

接下来的B100肯定赶不上HBM4(规范还没定呢),但必然会在堆叠容量、带宽上继续突破,大大超越现在的4.8TB/s。

ac91c32c-830e-11ee-939d-92fbcf53809c.jpg

Blackwell架构同时也会用于图形工作站和桌面游戏,传闻有GB202、GB203、GB205、GB206、GB207等不同核心,但是对于RTX 50系列,NVIDIA始终三缄其口,几乎肯定到2025年才会发布。

2024年就将是RTX 40 SUPER系列的天下了,明年初的CES 2025首发三款型号RTX 4080 SUPER、RTX 4070 Ti SUPER、RTX 4070 SUPER。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5496

    浏览量

    109096
  • gpu
    gpu
    +关注

    关注

    28

    文章

    5099

    浏览量

    134464
  • 堆叠
    +关注

    关注

    0

    文章

    37

    浏览量

    17013
  • AI
    AI
    +关注

    关注

    89

    文章

    38120

    浏览量

    296665
  • HBM3
    +关注

    关注

    0

    文章

    74

    浏览量

    468
  • HBM3E
    +关注

    关注

    0

    文章

    82

    浏览量

    716

原文标题:1.1TB HBM3e内存!NVIDIA奉上全球第一GPU:可惜无缘中国

文章出处:【微信号:hdworld16,微信公众号:硬件世界】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    GPU猛兽袭来!HBM4、AI服务器彻底引爆!

    电子发烧友网报道(文/黄晶晶)日前,多家服务器厂商表示因AI服务器需求高涨拉高业绩增长。随着AI服务器需求旺盛,以及英伟达GPU的更新换代,势必带动HBM供应商的积极产品推进。三星方面HBM3E
    的头像 发表于 06-02 06:54 6457次阅读

    400层闪存、HBM4、122TB SSD等,成为2025年存储市场牵引力

      电子发烧友网报道(文/黄晶晶)在人工智能、数据中心、新能源汽车、智能终端等应用的带动下,存储新技术新产品加速到来。例如数据中心市场,不仅是高带宽HBM持续进阶,HBM3EHBM4的演进,企业级
    的头像 发表于 12-16 07:24 4172次阅读
    400层闪存、<b class='flag-5'>HBM</b>4、122<b class='flag-5'>TB</b> SSD等,成为2025年存储市场牵引力

    AI大算力的存储技术, HBM 4E转向定制化

    在积极配合这客户需求。从HMB4的加速量产、HBM4E演进到逻辑裸芯片的定制化等HBM技术正在创新中发展。   HBM4 E的 基础裸片
    的头像 发表于 11-30 00:31 5085次阅读
    AI大算力的存储技术, <b class='flag-5'>HBM</b> 4<b class='flag-5'>E</b>转向定制化

    全球首款HBM4量产:2.5TB/s带宽超越JEDEC标准,AI存储迈入新纪元

    海力士 HBM4 内存的 I/O 接口位宽为 2048-bit,每个针脚带宽达 10Gbps,因此单颗带宽可高达 2.5TB/s。这里程碑不仅标志着 AI 存储器正式迈入 “2
    发表于 09-17 09:29 5741次阅读

    NVIDIA桌面GPU系列扩展新产品

    NVIDIA 桌面 GPU 系列扩展,推出 NVIDIA RTX PRO 4000 SFF Edition GPU 和 RTX PRO 2000 Blackwell
    的头像 发表于 08-18 11:50 997次阅读

    AI服务器给体成型电感带来多大的市场空间

    GPU、72颗CPU、20TB HBM3e、40TB DDR5内存,比上代增加50%,CX8互连带宽14.4
    的头像 发表于 07-24 12:00 721次阅读
    AI服务器给<b class='flag-5'>一</b>体成型电感带来多大的市场空间

    英伟达认证推迟,但三星HBM3E有了新进展

    明年。目前博通凭借自有半导体设计能力,正为谷歌代工第七代TPU"Ironwood"及Meta自研AI芯片"MTIA v3"。   此外,三星电子也积极推进向亚马逊云服务(AWS)供应HBM3E 12层产品,近期已在平泽园区启动实地审核。AWS计划明年量产搭载该存储器的下
    的头像 发表于 07-12 00:16 3362次阅读

    今日看点丨英特尔计划裁减高达20%员工;超48亿!面板大厂重磅收购

    1. 三星向博通供应HBM3E 芯片,重夺AI 芯片市场地位   据韩媒报道,三星电子将向博通供应第五代高带宽内存(HBM3E),继AMD之后再获大单。据业内消息人士透露,三星电子已完成博
    发表于 06-18 10:50 1678次阅读

    NVIDIA特供芯片B30曝光,没有HBM,没有NVLink

    电子发烧友网综合报道 消息称,NVIDIA正在为中国市场研发款名为“B30”的降规版AI芯片,这款芯片将首度支持多GPU扩展,允许用户通过连接多组芯片来打造更高性能的计算集群。B30
    的头像 发表于 06-04 00:13 4340次阅读

    Cadence推出HBM4 12.8Gbps IP内存系统解决方案

    需求。Cadence HBM4 解决方案符合 JEDEC 的内存规范 JESD270-4,与前HBM3E IP 产品相比,内存带宽翻了
    的头像 发表于 05-26 10:45 1193次阅读

    三星与英伟达高层会晤,商讨HBM3E供应

    其高带宽存储器HBM3E产品中的初始缺陷问题,并就三星第五代HBM3E产品向英伟达供应的相关事宜进行了深入讨论。 此次高层会晤引发了外界的广泛关注。据推测,三星8层HBM3E产品的质量认证工作已接近尾声,这标志着三星即将正式迈入
    的头像 发表于 02-18 11:00 909次阅读

    三星电子将供应改良版HBM3E芯片

    三星电子在近期举行的业绩电话会议中,透露了其高带宽内存HBM)的最新发展动态。据悉,该公司的第五代HBM3E产品已在2024年第三季度实现大规模生产和销售,并在第四季度成功向多家GPU
    的头像 发表于 02-06 17:59 1028次阅读

    美光加入16-Hi HBM3E内存竞争

    近日,全球DRAM内存巨头之的美光科技公司宣布,将正式进军16-Hi(即16层堆叠)HBM3E内存市场。目前,美光正在对最终设备进行评估,
    的头像 发表于 01-17 14:14 860次阅读

    SK海力士加速16Hi HBM3E内存量产准备

    近日,SK海力士正全力加速其全球首创的16层堆叠(16Hi)HBM3E内存的量产准备工作。这创新产品的全面生产测试已经正式启动,为明年初的样品出样乃至2025年上半年的大规模量产与供
    的头像 发表于 12-26 14:46 981次阅读

    美光发布HBM4与HBM4E项目新进展

    近日,据报道,全球知名半导体公司美光科技发布了其HBM4(High Bandwidth Memory 4,第四代高带宽内存)和HBM4E项目的最新研发进展。 据悉,美光科技的下
    的头像 发表于 12-23 14:20 1297次阅读