0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

了解NVIDIA首款服务器CPU

NVIDIA英伟达 来源:NVIDIA英伟达 作者:NVIDIA英伟达 2022-08-25 15:23 次阅读

新的芯片设计反映了 NVIDIA 在 AI、高性能计算和边缘计算领域平台创新的广度和深度。

在为期两天的四场演讲中,NVIDIA 高级工程师介绍了现代数据中心网络边缘系统在加速计算方面的创新。

虚拟 Hot Chips 大会是处理器和系统架构师的年度聚会。NVIDIA 高级工程师在演讲中披露了 NVIDIA 首款服务器 CPU、Hopper GPU、新版 NVSwitch 互连芯片和 NVIDIA Jetson Orin 系统模块 (SoM) 的性能数据和其他技术细节。

这些演讲就 NVIDIA 平台如何在性能、效率、规模和安全性方面达到更高水平提供了新见解。

具体来说,演讲展示了某种设计理念,即在 GPU、 CPU 和 DPU 充当对等处理器的整个芯片、系统和软件堆栈中进行创新。他们共同创建的平台已经在云服务提供商、超级计算中心、企业数据中心和自主系统内运行 AI、数据分析和高性能计算工作。

了解 NVIDIA 首款服务器 CPU

数据中心需要灵活的 CPU、GPU 和其他加速器集群共享海量内存池,以提供当今工作负载所需的高效性能。

为满足这一需求,NVIDIA 的杰出工程师兼 15 年资深员工 Jonathon Evans 介绍了 NVIDIA NVLink-C2C。它以每秒 900 GB 的速度连接 CPU 和 GPU,归功于每比特仅消耗 1.3 皮焦耳的数据传输,其能效是现有 PCIe 5.0 标准的 5 倍。

NVLink-C2C 连接两个 CPU 芯片,可创建具有 144 个 Arm Neoverse 核心和 512 GB 内存的 NVIDIA Grace CPU——用于解决全球大型计算问题的处理器。

为更大限度地提高效率,Grace CPU 使用 LPDDR5X 内存。它可实现每秒 1 TB 的内存带宽,同时将整个复合体的功耗保持在 500 瓦。

一个链接,多种用途

NVLink-C2C 还在 NVIDIA Grace Hopper 超级芯片中将 Grace CPU 和 Hopper GPU 芯片作为内存共享对等体关联,更大限度地加速像 AI 训练这样对性能要求很高的作业。

任何人都可以使用 NVLink-C2C 构建定制小芯片,以协调地连接 NVIDIA GPU、CPU、DPU 和 SoC,扩展这一新的集成产品类别。互连将支持 Arm 和 x86 处理器各自使用的 AMBA CHI 和 CXL 协议。

Grace 和 Grace Hopper 的首个内存基准测试

为了在系统层面进行扩展,新的 NVIDIA NVSwitch 将多台服务器连接到一台 AI 超级计算机。它使用 NVLink,互联速度为每秒 900 GB,是 PCIe 5.0 带宽的 7 倍以上。

NVSwitch 使用户能够将 32 个 NVIDIA DGX H100 系统连接到一台 AI 超级计算机中,这台超级计算机可以提供百亿亿次级峰值 AI 性能。

NVIDIA 的两位资深工程师 Alexander Ishii 和 Ryan Wells 介绍该交换机如何助力用户构建可支持多达 256 个 GPU 的系统,以处理要求严苛的工作负载,例如训练具有超过 1 万亿参数的 AI 模型。

该交换机包括使用 NVIDIA SHARP 技术加速数据传输的引擎。SHARP 是网络计算功能,最初在 NVIDIA Quantum InfiniBand 网络上使用。它可以使通信密集型 AI 应用的数据吞吐量翻倍。

NVSwitch 系统支持百亿亿次级 AI 超级计算机

Jack Choquette 是在 NVIDIA 任职 14 年的杰出高级工程师,他详细介绍了 NVIDIA H100 Tensor Core GPU(也称为 Hopper)。

除使用新的互连技术扩展到新的高度外,它还包括许多先进功能,可提升加速器的性能、效率和安全性。

与上一代相比,Hopper 的新 Transformer 引擎和升级版 Tensor Core 可在使用全球大型神经网络模型进行 AI 推理时,将速度提升 30 倍。此外,它采用全球首款 HBM3 内存系统,可提供高达 3 TB 的内存带宽,这是 NVIDIA 有史以来幅度超大的代际提升。

其他新功能包括:

Hopper 添加了针对多租户、多用户配置的虚拟化支持。

新的 DPX 指令集可加快选定映射、DNA 和蛋白质分析应用的递归循环速度。

Hopper 还支持通过机密计算增强安全性。

Choquette 在职业生涯早期曾是任天堂 64 游戏机的首席芯片设计师,他还介绍了一些 Hopper 进步背后的并行计算技术。

Michael Ditty 是 Orin 的首席架构师并在 NVIDIA 任职 17 年,他讲解了 NVIDIA Jetson AGX Orin(适用于边缘 AI、机器人开发和高级自主机器的引擎)的新性能规格

NVIDIA Jetson AGX Orin 集成了 12 个 Arm Cortex-A78 核心和一个 NVIDIA Ampere 架构 GPU,可为 AI 推理作业提供每秒高达 275 万亿次运算。相较上一代,能效提升 2.3 倍,性能提升高达 8 倍。

新的生产模块包含高达 32 GB 的内存,是兼容系列的一部分,可缩小至口袋大小的 5W Jetson Nano 开发者套件。

NVIDIA Orin 的性能基准测试

所有新芯片都支持 NVIDIA 软件堆栈,该堆栈可加速 700 多个应用,为 250 万名开发者所用。

它基于 CUDA 编程模型,包含数十个面向垂直市场的 NVIDIA SDK,例如汽车 (DRIVE) 和医疗健康 (Clara),以及推荐系统 (Merlin) 和对话式 AI (Riva) 等技术。

各大云服务和系统制造商均提供 NVIDIA AI 平台。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • cpu
    cpu
    +关注

    关注

    68

    文章

    10451

    浏览量

    206582
  • NVIDIA
    +关注

    关注

    14

    文章

    4597

    浏览量

    101756
  • 服务器
    +关注

    关注

    12

    文章

    8125

    浏览量

    82543
  • AI
    AI
    +关注

    关注

    87

    文章

    26472

    浏览量

    264101

原文标题:Hot Chips | NVIDIA 分享关于 Grace CPU、Hopper GPU、NVLink Switch 最新细节

文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    使用NVIDIA Triton推理服务器来加速AI预测

    这家云计算巨头的计算机视觉和数据科学服务使用 NVIDIA Triton 推理服务器来加速 AI 预测。
    的头像 发表于 02-29 14:04 218次阅读

    服务器远程不上服务器怎么办?服务器无法远程的原因是什么?

    运营商。 2.服务器网络问题 解决办法:通过路由图来确定是哪里的线路出现丢包,联系服务器商切换线路。 二、服务器问题 服务器带宽跑满、服务器
    发表于 02-27 16:21

    linux服务器和windows服务器

    Linux服务器和Windows服务器是目前应用最广泛的两种服务器操作系统。两者各有优劣,也适用于不同的应用场景。本文将 对Linux服务器和Windows
    发表于 02-22 15:46

    服务器cpu和普通电脑cpu的区别

    服务器CPU和普通电脑CPU之间存在许多区别。在以下文章中,我们将详细介绍服务器CPU和普通电脑CPU
    的头像 发表于 02-01 11:14 1351次阅读

    gpu服务器是干什么的 gpu服务器cpu服务器的区别有哪些

    gpu服务器是干什么的 gpu服务器cpu服务器的区别 GPU服务器是一种专门用于处理图形运算的服务器
    的头像 发表于 01-30 15:31 319次阅读

    gpu服务器是干什么的 gpu服务器cpu服务器的区别

     相比于传统的CPU服务器,GPU服务器支持同时计算大量相似的计算操作,可以实现更强的并行计算性能。GPU服务器通常配备多个高性能的GPU,可以有效地支持大规模数据并行处理,提高了计算
    的头像 发表于 12-02 17:20 1280次阅读

    linux查看服务器配置

    在Linux操作系统中,了解服务器配置对于系统管理员和网络工程师而言至关重要。通过查看服务器配置,您可以了解服务器的硬件和软件组成部分,包括
    的头像 发表于 11-17 09:41 604次阅读

    串口服务器如何使用OneNET平台MQTT服务器通讯教程 #MQTT #串口服务器 #OneNET平台

    串口服务器
    亿佰特物联网应用专家
    发布于 :2023年10月26日 15:47:36

    全球领先系统制造商推出 NVIDIA AI 就绪型服务器,为企业大幅提升生成式 AI 性能

    戴尔科技、慧与和联想即将推出采用 NVIDIA L40S GPU 和 NVIDIA BlueField 的服务器,以支持 VMware Private AI Foundation
    的头像 发表于 08-23 19:10 382次阅读

    GPU服务器是什么?

    具体是什么呢?如何选择GPU服务器? GPU服务器有什么作用? GPU加快计算能够提供不凡的应用软件性能,能将应用软件计算聚集一部分的工作中负荷迁移到GPU,另外仍由CPU运作其他编程代码。从客户的视角看来,应用软件的运作速率显
    的头像 发表于 08-01 18:03 611次阅读

    如何使用NVIDIA Triton 推理服务器来运行推理管道

    使用集成模型在 NVIDIA Triton 推理服务器上为 ML 模型管道提供服务
    的头像 发表于 07-05 16:30 1167次阅读
    如何使用<b class='flag-5'>NVIDIA</b> Triton 推理<b class='flag-5'>服务器</b>来运行推理管道

    什么是服务器指令?

    服务器
    YS YYDS
    发布于 :2023年06月23日 01:02:04

    服务器与PC机的比较

          第1章、什么是服务器 服务器的逻辑架构仍然遵循冯·诺依曼架构,主要包含:处理器(CPU、GPU、DPU等)、存储器、I/O接口,以及SSD、BMC、PCIe插槽、主板、电源、风扇和相关
    的头像 发表于 06-17 14:51 549次阅读
    <b class='flag-5'>服务器</b>与PC机的比较

    比较服务器CPU与手机AP CPU的异同

    ​ 本文对ARM Neoverse系列服务器CPU做一些初步调研,并尝试比较服务器CPU与手机AP CPU的异同。 云计算通用可编程DPU发
    的头像 发表于 06-12 09:45 1416次阅读
    比较<b class='flag-5'>服务器</b><b class='flag-5'>CPU</b>与手机AP <b class='flag-5'>CPU</b>的异同