0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Grace设计是为了填补英伟达人工智能服务器中CPU的空缺

SSDFans 来源:ssdfans 作者:ssdfans 2021-04-19 16:50 次阅读

4月12日上午,英伟达召开了春季GPU技术大会,图形和加速器设计师宣布他们将再次设计自己的基于ArmCPU。这款CPU以计算机编程先驱、美国海军少将格蕾丝•霍珀(Grace Hopper)的名字命名,它是英伟达在全面垂直整合硬件堆栈方面的最新尝试,能够在提供常规GPU产品的同时提供高性能CPU。据英伟达介绍,该芯片是专为大规模神经网络工作负载设计的,预计将于2023年在英伟达的产品中使用。

距离芯片准备就绪还有两年的时间,英伟达这次表现得相对低调,只提供了芯片的部分细节。例如,它将基于Arm的Neoverse内核的未来迭代产品,因为目前更多关注的是英伟达未来的工作流模式,而不是速度和输出。至少目前,英伟达已经明确表示,Grace是英伟达的内部产品,将作为其大型服务器产品的一部分。该公司并没有直接瞄准英特尔Xeon或AMD EPYC服务器市场,相反,他们正在建造自己的芯片来补充他们的GPU产品,创造一种可以直接连接他们的GPU的专用芯片,帮助处理参数规模达到万亿级的人工智能模型。

82a64638-9ed6-11eb-8b86-12bb97331649.jpg

总的来说,Grace的设计是为了填补英伟达人工智能服务器中CPU的空缺。公司的GPU非常适合于特定的深度学习模型,但不是所有模型都必须依赖于GPU。英伟达当前的服务器产品通常依赖于AMD的EPYC处理器,该处理器对于一般的计算目的来说速度非常快,但缺少英伟达寻找的那种高速I/O和深度学习优化。更重要的是,英伟达目前因使用PCI Express进行CPU-GPU连接而遇到瓶颈。它们的GPU可以通过NVLink在彼此之间快速对话,但不能返回主机CPU或系统RAM

这个问题的解决方案是使用NVLink进行CPU-GPU通信,就像Grace之前的情况一样。正是出于这个原因,英伟达曾与OpenPOWER基金会合作,将NVLink引入到POWER9中。然而,随着POWER的流行度下降,以及POWER10跳过了NVLink,这种关系似乎正在逐渐消失。而英伟达正在以自己的方式构建带有NVLink功能的Arm服务器CPU。

根据英伟达的说法,最终的结果将是一种高性能、高带宽的CPU与未来一代的英伟达服务器GPU协同工作。在英伟达谈论将每个英伟达 GPU与一个Grace CPU集成在一块板上的情况下(类似于今天的夹层卡),不仅CPU性能和系统内存随GPU的数量而增加,而且通过回旋方式,Grace可以用作英伟达 GPU的各种协处理器。这是一个非常英伟达解决方案,不仅可以提高性能,而且在AMD或Intel的CPU与GPU尝试类似的集成与融合的情况下,可以给他们一个反击。

到2023年,英伟达将达到NVLink 4, SoC和GPU之间的累积带宽将至少达到900GB/秒,Grace SoC之间的累积带宽将超过600GB/秒。关键是,这大于SoC的内存带宽,意味着英伟达的GPU将有一个到CPU的高速缓存链接,可以在全带宽下访问系统内存,同时也允许整个系统拥有一个单一的共享内存地址空间。英伟达将此描述为平衡系统中可用的带宽数量。拥有内置CPU是增加内存有效量的主要手段,因为英伟达的GPU仍然是大型神经网络的主要限制因素,由于内存容量的限制,只能有效地运行与本地内存池一样大的网络。

而且,这种以内存为中心的策略也反映在Grace的内存池设计中。由于英伟达将CPU与GPU放在一个共享的软件包中,因此他们打算将RAM放在它旁边。配备Grace的GPU模块将包括一定数量的LPDDR5x内存,而英伟达的目标是至少500GB /秒的内存带宽。在2023年,LPDDR5x可能会成为带宽最高的非显卡存储器选项,此外,由于LPDDR5x技术的根源是移动设备,而且追踪长度非常短,英伟达还在大力宣传使用LPDDR5x可以提高能源效率。而且,由于这是服务器部分,Grace的内存也将启用ECC。

至于CPU性能,实际上这是英伟达所说得最少的部分。该公司将使用下一代Arm的Neoverse CPU内核,,在这方面,最初的N1设计已经吸引了大量眼球。除此之外,该公司还表示,在SPECrate2017_int_base的吞吐量基准测试中,这款处理器的内核将突破300点,与AMD的一些第二代64核EPYC处理器相当。该公司也没有透露太多关于CPU是如何配置的,或者针对神经网络处理的优化是如何添加的。但由于Grace的目的是支持英伟达的GPU,预计它会在GPU普遍较弱的情况下变得更强。

另外,如前所述,英伟达为Grace设计的远大目标是大大减少了大型神经网络模型训练所需的时间。英伟达的目标是在1万亿参数模型上提高10倍的性能,

而他们对64个模块的Grace+A100系统(具有理论上的NVLink 4支持)的性能预测将把这种模型的训练时间从一个月缩短至三天。或者,能够在8个模块的系统上对5000亿个参数模型进行实时推断。

总体而言,这是英伟达在数据中心CPU市场的第二次真正尝试,也是第一次有可能成功。英伟达的Project Denver计划最初是在十年前宣布的,但从未像英伟达预期的那样取得真正的成果。定制的Arm内核家族从来都不够好,也从未使用英伟达的移动SoC制成。相比之下,Grace对于英伟达来说是一个更安全的项目。它们只是授予Arm内核许可,而不是构建自己的内核,这些内核也将被其他许多方使用。因此,英伟达的风险降低了,主要是在I/O和内存方面做得很好,并保持最终设计的节能效果。

如果一切都按计划进行,那么有望在2023年见到Grace。英伟达已经确认Grace模块将可用于HGX载板,以及扩展为DGX和所有其他使用这些板的系统。因此,尽管我们还没有看到英伟达Grace计划的全部内容,但很明显,他们正在计划使其成为未来服务器产品的核心部分。

两个超级计算机客户:CSCS和LANL

尽管Grace要到2023年才能发货,但英伟达已经找到了首批客户,而且他们都是超级计算机的客户。瑞士国家超级计算中心(CSCS)和洛斯阿拉莫斯国家实验室今天宣布,他们将订购基于Grace的超级计算机。这两套系统都将由惠普的克雷集团(Cray group)建造,预计将于2023年上线。

CSCS的系统称为Alps,将替换其当前的Piz Daint系统,即Xeon和英伟达 P100集群。根据两家公司的说法,Alps将提供20 ExaFLOPS的AI性能,大概是CPU,CUDA内核和张量内核吞吐量的组合。推出时,Alps应该是世界上最快的以人工智能为中心的超级计算机。

有趣的是,CSCS对系统的雄心壮志不仅限于机器学习工作负载。该研究所表示,他们将把Alps作为通用系统,从事更传统的HPC类型任务以及以AI为重点的任务。这包括CSCS对天气和气候的传统研究,而AI之前的Piz Daint也已用于该研究。

如前所述,Alps将由HPE建造,后者将基于其先前宣布的Cray EX架构。这将使英伟达的Grace与AMD的EPYC处理器一起成为Cray EX的第二个CPU选项。

与此同时,Los Alamos的系统正在开发,作为实验室与英伟达之间持续合作的一部分,而LANL将成为美国第一个使用Grace系统的客户。尽管实验室计划利用Grace提供的最大数据集规模来计划将其用于3D仿真,但LANL并未讨论系统的预期性能是否超出“领导级别”的事实。LANL系统定于2023年初交付。

原文标题:Grace:英伟达数据中心CPU市场的第一次成功尝试!

文章出处:【微信公众号:ssdfans】欢迎添加关注!文章转载请注明出处。

责任编辑:haq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • cpu
    cpu
    +关注

    关注

    68

    文章

    10405

    浏览量

    206448
  • 英伟达
    +关注

    关注

    22

    文章

    3299

    浏览量

    87645

原文标题:Grace:英伟达数据中心CPU市场的第一次成功尝试!

文章出处:【微信号:SSDFans,微信公众号:SSDFans】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    5G智能物联网课程之Aidlux下人工智能开发

    课程类别 课程名称 视频课程时长 视频课程链接 课件链接 人工智能 参赛基础知识指引 14分50秒 https://t.elecfans.com/v/25508.html *附件:参赛基础知识指引
    发表于 04-01 10:40

    英伟达AI服务器NVLink版与PCIe版有何区别?又如何选择呢?

    人工智能领域,英伟达作为行业领军者,推出了两种主要的GPU版本供AI服务器选择——NVLink版(实为SXM版)与PCIe版。这两者有何本质区别?又该如何根据应用场景做出最佳选择呢?让我们深入探讨一下。
    的头像 发表于 03-19 11:21 770次阅读
    <b class='flag-5'>英伟</b>达AI<b class='flag-5'>服务器</b>NVLink版与PCIe版有何区别?又如何选择呢?

    全球最小英伟达GH200服务器发布:永擎制造

    服务器搭载英伟Grace及Hopper人工智能GPU,并通过NVLink实现互联功能以提升整体效能。其中,CPU部分采用72个Arm N
    的头像 发表于 02-27 15:29 206次阅读

    嵌入式人工智能的就业方向有哪些?

    嵌入式人工智能的就业方向有哪些? 在新一轮科技革命与产业变革的时代背景下,嵌入式人工智能成为国家新型基础建设与传统产业升级的核心驱动力。同时在此背景驱动下,众多名企也纷纷在嵌入式人工智能领域布局
    发表于 02-26 10:17

    英伟Grace-Hopper提供一个紧密集成的CPU + GPU解决方案

    英伟Grace-Hopper提供了一个紧密集成的CPU + GPU解决方案,针对生成式人工智能逐渐成为主导的市场环境。
    的头像 发表于 01-02 15:52 316次阅读

    物理服务器对ai发展的应用

    物理服务器在AI发展中扮演着重要的角色。传统的以CPU为计算部件的服务器架构已难以满足人工智能的新需求,因此,"CPU+ GPU/FPGA/
    的头像 发表于 12-22 09:19 211次阅读

    人工智能服务器高性能计算需求

    人工智能(AI)服务器是一种专门为了运行人工智能应用和提供大数据处理能力而设计的高性能计算机。它既可以支持本地应用程序和网页,也可以为云和本地服务器提供复杂的AI模型和
    的头像 发表于 12-08 09:44 203次阅读

    英伟达拟在日本建立芯片工厂网络 以满足人工智能需求

    英伟达的gpu通过并行计算处理大量数据,用于训练人工智能服务。随着企业和政府努力开发人工智能技术,人工智能芯片价格不断飙升。
    的头像 发表于 12-05 11:02 432次阅读

    ai人工智能机器人

    随着时间的推移,人工智能的发展越来越成熟,智能时代也离人们越来越近,近几年人工智能越来越火爆,人工智能的应用已经开始渗透到各行各业,与生活交融,成为人们无法拒绝,无法失去的一个重要存在
    发表于 09-21 11:09

    英伟达分享Grace CPU Superchip的新基准

    ​ Nvidia 分享了该公司Grace CPU Superchip的新基准。下一代基于 Arm Neoverse 的芯片将为数据中心提供动力,在相同功耗下,其性能是 AMD 第四代EPYC Genoa和英特尔第四代Sapphire Rapids Xeon处理器的两倍
    发表于 09-18 15:57 278次阅读
    <b class='flag-5'>英伟</b>达分享<b class='flag-5'>Grace</b> <b class='flag-5'>CPU</b> Superchip的新基准

    《通用人工智能:初心与未来》-试读报告

    取代人类了吗? 很多人都担心这个问题,其实这个就是有点杞人忧天了。人工智能服务人类,而不是取代人类。人类是不知道多少万年进化的结果,而计算机是基于逻辑和推理的理论建立的,人类是复杂的是社会的,关于情感
    发表于 09-18 10:02

    如何将人工智能应用到效能评估系统软件中去解决

    ,我们可以将其应用到效能评估系统,进一步提高效能评估的准确性和实用性。   华盛恒辉可以利用人工智能技术,通过对大量数据的分析,来识别和评估各个业务环节的表现,从而对效能进行评估和监测。此外,我们还可
    发表于 08-30 12:58

    基于瑞芯微的RK3588核心板+底板 NVR人工智能服务器解决方案

    基于瑞芯微的RK3588核心板+底板,主要解决NVR、云服务器人工智能智能座舱、智慧大屏等产品应用
    的头像 发表于 07-12 10:27 1096次阅读
    基于瑞芯微的RK3588核心板+底板 NVR<b class='flag-5'>人工智能</b>云<b class='flag-5'>服务器</b>解决方案

    AI 人工智能的未来在哪?

    人工智能、AI智能大模型已经孵化;繁衍过程将突飞猛进,ChatGPT已经上线。 世界首富马斯克认为AI对人类是一种威胁;谷歌前CEO施密特认为AI和机器学习对人类有很大益处。 每个国家对核武器的运用有两面性,可造可控;但AI智能
    发表于 06-27 10:48

    【EASY EAI Nano人工智能开发套件试用体验】EASY EAI Nano人工智能开发套件开箱及硬件初体验

    。 来看看我们的主角EASY EAI Nano人工智能开发板。 简单介绍一下这个开发板的功能: EASY EAI Nano是灵眸科技的硬件产品。基于瑞芯微RV1126 处理设计,具有四核
    发表于 05-31 19:18