0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英伟达全球首发HBM3e 专为生成式AI时代打造

要长高 来源:网络整理 作者:网络整理 2023-08-11 16:29 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

2023年8月8日,NVIDIA创始人兼CEO黄仁勋在计算机图形年会SIGGRAPH上发布了HBM3e内存新一代GH200 Grace Hopper超级芯片。这款芯片被黄仁勋称为“加速计算和生成式AI时代的处理器”,旨在用于任何大型语言模型,以降低推理成本。

与今年5月发布的GH200不同,新一代GH200芯片搭载了全球首款HBM3e内存,内存容量和带宽都有显著提高,专为加速计算和生成式AI时代而设计。

新版GH200芯片平台基于72核Grace CPU,配备480GB ECC LPDDR5X内存以及GH100计算GPU。此外,它还搭配着141GB的HBM3e内存,分为六个24GB的堆栈,并采用了6,144位的内存接口。尽管实际上NVIDIA安装了144GB的内存,但可用的内存容量为141GB。

借助全球最快的HBM3e内存,这款芯片的内存容量高达141GB,带宽每秒可达到5TB。每个GPU的容量比NVIDIA H100 GPU多出1.7倍,带宽比H100高1.55倍。

NVIDIA强调,新版GH200 Grace Hopper芯片使用了与原版相同的Grace CPU和GH100 GPU芯片,因此无需推出新的软件版本或步进。原版GH200和升级版GH200将共存于市场,后者将以更高的价格销售,因为它具备更先进的内存技术带来的更高性能。

NVIDIA表示,新版GH200旨在处理世界上最复杂的生成式AI工作负载,包括大型语言模型、推荐系统和矢量数据库,并将提供多种配置。预计新版GH200将于2024年第二季度投产。

编辑:黄飞

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    20154

    浏览量

    247385
  • NVIDIA
    +关注

    关注

    14

    文章

    5496

    浏览量

    109117
  • gpu
    gpu
    +关注

    关注

    28

    文章

    5102

    浏览量

    134483
  • 内存
    +关注

    关注

    9

    文章

    3173

    浏览量

    76121
  • AI
    AI
    +关注

    关注

    90

    文章

    38189

    浏览量

    297002
  • 生成式AI
    +关注

    关注

    0

    文章

    537

    浏览量

    1021
  • HBM3
    +关注

    关注

    0

    文章

    74

    浏览量

    468
  • HBM3E
    +关注

    关注

    0

    文章

    82

    浏览量

    716
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    GPU猛兽袭来!HBM4、AI服务器彻底引爆!

    电子发烧友网报道(文/黄晶晶)日前,多家服务器厂商表示因AI服务器需求高涨拉高业绩增长。随着AI服务器需求旺盛,以及英伟GPU的更新换代,势必带动
    的头像 发表于 06-02 06:54 6487次阅读

    英伟重磅杀入Arm AI PC,N1X芯片跑分曝光!结果比较意外

     电子发烧友网报道(文/黄山明)如今我们正处于信息时代迈入AI时代的过渡期,而作为AI时代最大的“卖铲人”,
    的头像 发表于 03-04 00:58 3112次阅读
    <b class='flag-5'>英伟</b><b class='flag-5'>达</b>重磅杀入Arm <b class='flag-5'>AI</b> PC,N1X芯片跑分曝光!结果比较意外

    AI大算力的存储技术, HBM 4E转向定制化

    电子发烧友网报道(文/黄晶晶)如今英伟GPU迭代速度加快至每年一次,HBM存储速率如何跟上GPU发展节奏。越来越多的超大规模云厂商、GPU厂商开始转向定制化HBM。而
    的头像 发表于 11-30 00:31 5309次阅读
    <b class='flag-5'>AI</b>大算力的存储技术, <b class='flag-5'>HBM</b> 4<b class='flag-5'>E</b>转向定制化

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI芯片的需求和挑战

    当今社会,AI已经发展很迅速了,但是你了解AI的发展历程吗?本章作者将为我们打开AI的发展历程以及需求和挑战的面纱。 从2017年开始生成
    发表于 09-12 16:07

    传三星 HBM4 通过英伟认证,量产在即

    开始实现大规模生产。这一进展将使得三星参与到下一阶段HBM订单的有力竞争。   三星还在HBM3E上提供了非常具有吸引力的报价,传闻向英伟提供比SK海力士低20%至30%的报价,三星
    的头像 发表于 08-23 00:28 6938次阅读

    英伟自研HBM基础裸片

    电子发烧友网综合报道,据台媒消息,传闻英伟已开始开发自己的HBM基础裸片,预计英伟的自研HBM
    的头像 发表于 08-21 08:16 2534次阅读

    英伟认证推迟,但三星HBM3E有了新进展

    明年。目前博通凭借自有半导体设计能力,正为谷歌代工第七代TPU"Ironwood"及Meta自研AI芯片"MTIA v3"。   此外,三星电子也积极推进向亚马逊云服务(AWS)供应HBM3E 12层产品,近期已在平泽园区启动实
    的头像 发表于 07-12 00:16 3370次阅读

    IBM携手英伟AI数据平台推动企业级AI创新

    近日,IBM(纽约证券交易所:IBM)宣布与英伟(纳斯达克股票代码:NVDA)开展全新合作,双方将基于英伟 AI 数据平台参考架构(re
    发表于 03-24 19:20 415次阅读

    英伟GTC25亮点:NVIDIA Blackwell Ultra 开启 AI 推理新时代

    英伟GTC25亮点:NVIDIA Blackwell Ultra 开启 AI 推理新时代
    的头像 发表于 03-20 15:35 1227次阅读

    美光量产12层堆栈HBM,获英伟供应合同

    近日,美光科技宣布即将开始量产其最新的12层堆栈高带宽内存(HBM),并将这一高性能产品供应给领先的AI半导体公司英伟。这一消息的发布,标志着美光在
    的头像 发表于 02-18 14:51 1159次阅读

    三星与英伟高层会晤,商讨HBM3E供应

    其高带宽存储器HBM3E产品中的初始缺陷问题,并就三星第五代HBM3E产品向英伟供应的相关事宜进行了深入讨论。 此次高层会晤引发了外界的广泛关注。据推测,三星8层
    的头像 发表于 02-18 11:00 917次阅读

    三星电子将供应改良版HBM3E芯片

    三星电子在近期举行的业绩电话会议中,透露了其高带宽内存(HBM)的最新发展动态。据悉,该公司的第五代HBM3E产品已在2024年第三季度实现大规模生产和销售,并在第四季度成功向多家GPU厂商及数据中心供货。与上一代HBM3相比,
    的头像 发表于 02-06 17:59 1042次阅读

    美光加入16-Hi HBM3E内存竞争

    近日,全球DRAM内存巨头之一的美光科技公司宣布,将正式进军16-Hi(即16层堆叠)HBM3E内存市场。目前,美光正在对最终设备进行评估,并计划在今年内实现量产。 这一消息标志着美光在高性能内存
    的头像 发表于 01-17 14:14 865次阅读

    NVIDIA和GeForce RTX GPU专为AI时代打造

    NVIDIA 和 GeForce RTX GPU 专为 AI 时代打造
    的头像 发表于 01-06 10:45 1268次阅读

    SK海力士加速16Hi HBM3E内存量产准备

    近日,SK海力士正全力加速其全球首创的16层堆叠(16Hi)HBM3E内存的量产准备工作。这一创新产品的全面生产测试已经正式启动,为明年初的样品出样乃至2025年上半年的大规模量产与供应奠定了
    的头像 发表于 12-26 14:46 989次阅读