0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA H100 Tensor Core GPU性能比上一代GPU高出4.5 倍

NVIDIA英伟达 来源:NVIDIA英伟达 作者:NVIDIA英伟达 2022-09-13 15:29 次阅读

在行业标准 AI 推理测试中,NVIDIA H100 GPU 创造多项世界纪录、A100 GPU 在主流性能方面展现领先优势、Jetson AGX Orin 在边缘计算方面处于领先地位。

在 MLPerf 行业标准 AI 基准测试中首次亮相的 NVIDIA H100 Tensor Core GPU 在所有工作负载推理中均创造了世界纪录,其性能比上一代 GPU 高出 4.5 倍。

这些测试结果表明,对于那些需要在高级 AI 模型上获得最高性能的用户来说,Hopper 是最优选择。

此外,NVIDIA A100 Tensor Core GPU 和用于 AI 机器人的 NVIDIA Jetson AGX Orin 模块在所有 MLPerf 测试中继续表现出整体领先的推理性能,包括图像和语音识别自然语言处理和推荐系统。

H100 (又名 Hopper)提高了本轮测试所有六个神经网络中的单加速器性能标杆。它在单个服务器和离线场景中展现出吞吐量和速度方面的领先优势。

18e4d860-3041-11ed-ba43-dac502259ad0.jpg

NVIDIA H100 GPU 在数据中心类别的所有工作负载上都树立了新标杆

NVIDIA Hopper 架构的性能比 NVIDIA Ampere 架构高出 4.5 倍;Ampere 架构 GPU 在 MLPerf 结果中继续保持全方位领先地位。

Hopper 在流行的用于自然语言处理的 BERT 模型上表现出色部分归功于其 Transformer Engine。BERT 是 MLPerf AI 模型中规模最大、对性能要求最高的的模型之一。

这些推理基准测试标志着 H100 GPU 的首次公开亮相,它将于今年晚些时候上市。H100 GPU 还将参加未来的 MLPerf 训练基准测试。

A100 GPU 展现领先优势

最新测试中,NVIDIA A100 GPU 继续在主流 AI 推理性能方面展现出全方位领先,目前主要的云服务商和系统制造商均提供 A100 GPU。

在数据中心和边缘计算类别与场景中,A100 GPU 赢得的测试项超过了任何其他提交的结果。A100 还在 6 月的 MLPerf 训练基准测试中取得了全方位的领先,展现了其在整个 AI 工作流中的能力。

自 2020 年 7 月在 MLPerf 上首次亮相以来由于 NVIDIA AI 软件的不断改进,A100 GPU 的性能已经提升了 6 倍。

NVIDIA AI 是唯一能够在数据中心和边缘计算中运行所有 MLPerf 推理工作负载和场景的平台。

用户需要通用性能

NVIDIA GPU 在所有主要 AI 模型上的领先性能,使用户成为真正的赢家。用户在实际应用中通常会采用许多不同类型的神经网络。

例如,一个AI 应用可能需要理解用户的语音请求、对图像进行分类、提出建议,然后以人声作为语音信息提供回应。每个步骤都需要用到不同类型的 AI 模型。

MLPerf 基准测试涵盖了所有这些和其他流行的 AI 工作负载与场景,比如计算机视觉、自然语言处理、推荐系统、语音识别等。这些测试确保用户将获得可靠且部署灵活的性能。

MLPerf 凭借其透明性和客观性使用户能够做出明智的购买决定。该基准测试得到了包括亚马逊Arm、百度、谷歌、哈佛大学、英特尔、Meta、微软、斯坦福大学和多伦多大学在内的广泛支持。

Orin 在边缘计算领域保持领先

在边缘计算方面,NVIDIA Orin 运行了所有 MLPerf 基准测试,是所有低功耗系统级芯片中赢得测试最多的芯片。并且,与 4 月在 MLPerf 上的首次亮相相比,其能效提高了50%。

在上一轮基准测试中,Orin 的运行速度和平均能效分别比上一代 Jetson AGX Xavier 模块高出 5 倍和 2 倍。

195dec3c-3041-11ed-ba43-dac502259ad0.jpg

在能效方面,Orin 边缘 AI 推理性能提升多达 50%

Orin 将 NVIDIA Ampere 架构 GPU 和强大的 Arm CPU 内核集成到一块芯片中。目前,Orin 现已被用在 NVIDIA Jetson AGX Orin 开发者套件以及机器人和自主系统生产模块,并支持完整的 NVIDIA AI 软件堆栈,,包括自动驾驶汽车平台(NVIDIA Hyperion)、医疗设备平台(Clara Holoscan)和机器人平台(Isaac)。

广泛的 NVIDIA AI 生态系统

MLPerf 结果显示,NVIDIA AI 得到了业界最广泛的机器学习生态系统的支持。

在这一轮基准测试中,有超过 70 项提交结果在 NVIDIA 平台上运行。例如,Microsoft Azure 提交了在其云服务上运行 NVIDIA AI 的结果。

此外,10 家系统制造商的 19 个 NVIDIA 认证系统参加了本轮基准测试,包括华硕、戴尔科技富士通、技嘉、慧与、联想、和超微等。

它们的结果表明,无论是在云端还是在自己数据中心运行的服务器中,用户都可以借助 NVIDIA AI 获得出色的性能。

NVIDIA 的合作伙伴参与 MLPerf 是因为他们知道这是一个为客户评估 AI 平台和厂商的重要工具。最新一轮结果表明,他们目前向用户提供的性能将随着 NVIDIA 平台的发展而增长。

用于这些测试的所有软件都可以从 MLPerf 库中获得,因此任何人都可以获得这些世界级成果。NGC( NVIDIA 的 GPU 加速软件目录)上正在源源不断地增加以容器化形式提供的优化。在这里,你还会发现 NVIDIA TensorRT,本轮测试的每此提交都使用它来优化 AI 推断。

审核编辑:彭静
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 机器人
    +关注

    关注

    206

    文章

    27025

    浏览量

    201369
  • NVIDIA
    +关注

    关注

    14

    文章

    4588

    浏览量

    101694
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4415

    浏览量

    126645
  • 英伟达
    +关注

    关注

    22

    文章

    3323

    浏览量

    87743
  • H100
    +关注

    关注

    0

    文章

    31

    浏览量

    212

原文标题:NVIDIA Hopper 首次亮相 MLPerf,在 AI 推理基准测试中一骑绝尘

文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    巨头豪购35万块NVIDIA最强GPU H100

    NVIDIA AI GPU无疑是当下的硬通货,从科技巨头到小型企业都在抢。
    的头像 发表于 01-29 09:58 597次阅读
    巨头豪购35万块<b class='flag-5'>NVIDIA</b>最强<b class='flag-5'>GPU</b> <b class='flag-5'>H100</b>

    AI服务器的内存接口芯片技术

    DXG 服务器配备 8 块 H100 GPU,6400亿个晶体管,在全新的 FP8 精度下 AI 性能比上一代高 6 倍,可提供 900GB/s 的带宽。
    发表于 12-13 09:23 418次阅读
    AI服务器的内存接口芯片技术

    FlashAttention2详解(性能比FlashAttention提升200%)

    GPU performance characteristics. GPU主要计算单元(如浮点运算单元)和内存层次结构。大多数现代GPU包含专用的低精度矩阵乘法单元(如Nvidia
    的头像 发表于 11-24 16:21 537次阅读
    FlashAttention2详解(<b class='flag-5'>性能比</b>FlashAttention提升200%)

    揭秘:英伟达H100最强替代者

    目前,用于高端推理的 GPU 主要有三种:NVIDIA A100NVIDIA H100 和新的 NVI
    的头像 发表于 11-13 16:13 663次阅读
    揭秘:英伟达<b class='flag-5'>H100</b>最强替代者

    Oracle 云基础设施提供新的 NVIDIA GPU 加速计算实例

    。为了帮助满足这一需求,Oracle 云基础设施(OCI)于近日宣布,在 OCI Compute 上全面提供 NVIDIA H100 Tensor Core
    的头像 发表于 09-25 20:40 283次阅读
    Oracle 云基础设施提供新的 <b class='flag-5'>NVIDIA</b> <b class='flag-5'>GPU</b> 加速计算实例

    英伟达最强芯片性能公布,比H100 GPU高出17%

    这将推动大批量销售。本轮 MLPerf 提交还包括 Nvidia L4 GPU 的第一批结果,该推理优化卡在 GPT-J 推理基准测试中的性能是单个 Xeon 9480 的 6 倍,尽管在超薄外形卡中功耗仅为 72W,不需要辅助
    发表于 09-13 16:51 903次阅读
    英伟达最强芯片<b class='flag-5'>性能</b>公布,比<b class='flag-5'>H100</b> <b class='flag-5'>GPU</b><b class='flag-5'>高出</b>17%

    NVIDIA Grace Hopper超级芯片横扫MLPerf推理基准测试

    Hopper超级芯片首次亮相 MLPerf 行业基准测试,其运行了所有数据中心推理测试,进一步扩大了NVIDIA H100 Tensor Core
    发表于 09-13 09:45 165次阅读
    <b class='flag-5'>NVIDIA</b> Grace Hopper超级芯片横扫MLPerf推理基准测试

    谷歌云与 NVIDIA 进一步深化合作

    这一需求,谷歌云近日宣布全面推出由 NVIDIA H100 Tensor Core GPU 驱动的全新 A3 实例。
    的头像 发表于 08-31 13:00 261次阅读
    谷歌云与 <b class='flag-5'>NVIDIA</b> 进一步深化合作

    华为海思麒麟9000s是处于什么水平的处理器?

    官方公布的数据,麒麟9000s的单核性能比上一代芯片提升了25%,多核性能提升了30%。   接下来,我们来看下该芯片的GPU性能表现。麒
    发表于 08-31 09:34

    生成式人工智能推动,传英伟达今年将销售55万个H100 GPU

    虽然目前尚未确定gpu的准确配置,但nvidia h100 80gb hbm2e运算卡gpu (14592 cuda core, 26 fp
    的头像 发表于 08-17 10:22 264次阅读

    生成式人工智能推动,传英伟达今年将销售55万个H100 GPU

    虽然目前尚未确定gpu的准确配置,但英伟达 h100 80gb hbm2e运算卡gpu (14592 cuda core, 26 fp64 tflops, 1513 fp16 tflo
    的头像 发表于 08-16 11:05 744次阅读

    英伟达a100h100哪个强?英伟达A100H100的区别

    英伟达a100h100哪个强? 就A100H100这两个产品来说,它们虽然都是英伟达公司的高性能计算产品,但是面向的市场和应用场景不同,
    的头像 发表于 08-09 17:31 3.5w次阅读

    英伟达h800和h100的区别

    英伟达h800和h100的区别 其实大白话就是,A100H100是原版,特供中国市场的减配版是A800、H800。A100H100是价格
    的头像 发表于 08-08 16:06 3.9w次阅读
    英伟达h800和<b class='flag-5'>h100</b>的区别

    英伟达A100H100的区别

    英伟达A100H100的区别 英伟达A100H100是两种不同的产品。A100是英伟达在2020年推出的一款基于Ampere架构的数据中
    的头像 发表于 08-07 18:06 2.4w次阅读

    英伟达a100h100哪个强?

    架构。 英伟达A100是一款基于最新的NVIDIA Ampere架构设计的数据中心GPU,拥有更多的CUDA核心、更高的时钟频率和更大的存储
    的头像 发表于 08-07 17:32 1.1w次阅读