0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA和多家全球领先的服务器制造商发布多款内置NVIDIA A100的系统

NVIDIA英伟达 来源:英伟达NVIDIA中 2020-06-24 16:04 次阅读

思科、Dell Technologies、HPE、浪潮、联想、Supermicro纷纷在今夏推出新系统

NVIDIA和多家全球领先的服务器制造商于今日发布多款内置NVIDIA A100的系统。这些系统具有多种不同的设计和配置,可应对AI、数据科学和科学计算领域最复杂的挑战。

继上月NVIDIA Ampere架构和NVIDIA A100 GPU发布之后,全球顶尖供应商预计将发布超过50款内置A100的服务器,其中包括华硕、Atos、思科、Dell Technologies、富士通、技嘉科技、HPE、浪潮、联想、One Stop Systems、Quanta/QCT和Supermicro。

这些服务器的上市时间各不相同,预计今年夏天将有30款系统上市,到年底将再有20多款系统上市。

NVIDIA副总裁兼加速计算总经理Ian Buck表示:“领先的服务器制造商正在以前所未有的速度将NVIDIA A100 GPU引入到他们的产品中。我们的合作伙伴推出了种类丰富的NVIDIA A100服务器产品,使客户可以作出最佳的选择来加速他们的数据中心,实现高利用率和低总拥有成本。”

A100是首款基于NVIDIA Ampere架构的GPU,其性能比前代产品提高了多达20倍,是NVIDIA迄今为止性能提升幅度最大的GPU。A100采用多项突破性的技术,比如全新多实例GPU技术可将单个A100分割成最多七个独立的GPU来处理各种计算任务;第三代NVIDIA NVLink技术能将多个GPU组合成一个巨型GPU;全新结构化稀疏功能将GPU的性能提高一倍。

为了补充完善上月发布的四卡和八卡NVIDIA HGX A100配置,NVIDIA还发布了PCIe版本的A100。新增的PCIe版本A100使服务器制造商能够为客户提供丰富的产品组合——从内置单个A100 GPU的系统到内置10个或10个以上GPU的服务器等。这些系统可以为各种计算密集型任务加速,包括用于新药研发的分子动力学模拟、建立更好的按揭贷款审批财务模型等。

以下服务器制造商将为客户提供内置NVIDIA A100的系统:

华硕将推出ESC4000A-E10。每台ESC4000A-E10服务器可配置4个A100 PCIe GPU。

Atos将推出其BullSequana X2415系统,配置有4个NVIDIA A100 Tensor Core GPU。

思科的Cisco Unified Computing System服务器和超融合架构系统Cisco HyperFlex将支持NVIDIA A100 Tensor Core GPU。

Dell Technologies的PowerEdge服务器和解决方案将支持NVIDIA A100 Tensor Core GPU,为从边缘到核心到云的工作负载提供加速,正如它在各种产品中支持其他NVIDIA GPU加速器、软件和技术一样。

富士通将在其PRIMERGY服务器系列中引入A100 GPU。

技嘉科技将发布的G481-HA0、G492-Z50和G492-Z51服务器支持多达10个A100 PCIe GPU,G292-Z40服务器支持多达8个A100 PCIe GPU。

HPE的HPE ProLiant DL380 Gen10服务器将支持A100 PCIe GPU,HPE Apollo 6500 Gen10系统也将依靠A100 PCIe GPU加速HPC和AI工作负载。

浪潮发布了八款内置NVIDIA A100的系统,包括使用A100 PCIe GPU的NF5468M5、NF5468M6和NF5468A5,使用八路NVLink的NF5488M5-D、NF5488A5、NF5488M6和NF5688M6,以及使用十六路NVLink的NF5888M6。

联想的部分系统(包括联想ThinkSystem SR670 AI-ready服务器)将支持A100 PCIe GPU。联想将在今年秋天扩大整个ThinkSystem和ThinkAgile产品系列的供应。

One Stop Systems将为其OSS 4UV Gen 4 PCIe扩展系统提供多达8个NVIDIA A100 PCIe GPU,使AI和HPC客户可以横向扩展他们的Gen 4服务器。

Quanta/QCT将提供多款QuantaGrid服务器系统,支持多达八个NVIDIA A100 PCIe GPU,其中包括D52BV-2U、D43KQ-2U和D52G-4U等。

Supermicro的4U A+ GPU系统将支持多达8个NVIDIA A100 PCIe GPU和2个附加高性能PCI-E 4.0扩展插槽。此外,该系统还支持其他1U、2U和4U GPU服务器。

NVIDIA正在扩展NGC-Ready认证系统产品组合。系统供应商可直接与NVIDIA合作,为内置A100的服务器取得NGC-Ready认证。NGC-Ready认证能够向客户保证,经过认证的系统具有运行AI工作负载所需的性能。

NGC-Ready系统使用来自NVIDIA NGC注册中心的GPU优化AI软件进行测试。该软件可用于数据中心、云端和边缘内置NVIDIA GPU的系统。

NVIDIA A100优化软件现已上市

NVIDIA A100由NVIDIA Ampere优化软件提供支持:包括CUDA 11;50多个CUDA-X库的新版本;多模式对话式AI服务框架NVIDIA Jarvis;深度推荐应用框架 NVIDIA Merlin;RAPIDS开源数据科学软件库套件;NVIDIA HPC SDK,其中内含编译器、库和软件工具,可最大程度地提高开发者的工作效率以及HPC应用的性能和可移植性。

凭借这些功能强大的软件工具,开发者们能够构建并加速HPC、基因组学、5G、数据科学、机器人学等领域的应用。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4582

    浏览量

    101682
  • 服务器
    +关注

    关注

    12

    文章

    8099

    浏览量

    82485
  • 数据科学
    +关注

    关注

    0

    文章

    163

    浏览量

    9981

原文标题:ISC 2020 | 全球顶尖系统制造商发布内置NVIDIA A100的服务器,为AI、数据科学和科学计算加速

文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    使用NVIDIA Triton推理服务器来加速AI预测

    这家云计算巨头的计算机视觉和数据科学服务使用 NVIDIA Triton 推理服务器来加速 AI 预测。
    的头像 发表于 02-29 14:04 206次阅读

    NVIDIA DOCA 2.5 长期支持版本发布

    基础设施开发者的全面软件框架,NVIDIA DOCA 已被领先的云服务提供商、企业和 ISV 创新者所采用,为开发、优化和部署基于 NVIDIA BlueField 系列产品的加速应
    的头像 发表于 12-26 18:25 196次阅读
    <b class='flag-5'>NVIDIA</b> DOCA 2.5 长期支持版本<b class='flag-5'>发布</b>

    SC23 | NVIDIA全球领先的 AI 计算平台 Hopper 再添新动力

    世界顶级服务器制造商和云服务提供商即将推出 HGX H200 系统与云实例。 11月13日,NVIDIA 宣布推出
    的头像 发表于 11-14 20:05 285次阅读
    SC23 | <b class='flag-5'>NVIDIA</b> 为<b class='flag-5'>全球</b><b class='flag-5'>领先</b>的 AI 计算平台 Hopper 再添新动力

    对英伟达A100芯片算力服务收费价格上调100%,这家企业的硬气来自哪里?

    半导体芯情了解到,A100是英伟达最新推出的一款高性能计算芯片,采用了全新的Ampere架构,Ampere架构是NVIDIA于 GTC 2020发布的GPU架构,NVIDIA Ampe
    的头像 发表于 11-14 16:30 642次阅读
    对英伟达<b class='flag-5'>A100</b>芯片算力<b class='flag-5'>服务</b>收费价格上调<b class='flag-5'>100</b>%,这家企业的硬气来自哪里?

    NVIDIA全球领先的 AI 计算平台 Hopper 再添新动力

    世界顶级服务器制造商和云服务提供商即将推出 HGX H200 系统与云实例     丹佛 - SC23 - 太平洋 时间 2023 年 11 月 13 日 -
    发表于 11-14 14:30 102次阅读
    <b class='flag-5'>NVIDIA</b> 为<b class='flag-5'>全球</b><b class='flag-5'>领先</b>的 AI 计算平台 Hopper 再添新动力

    领先的电子制造商选择 NVIDIA DRIVE Hyperion 9,内置 DRIVE Thor 和新一代传感器架构

    Orin  及后续产品  DRIVE Thor 。 此外,Foxconn 还会作为合同制造商来生产高度自动化、自主化和 AI 化的电动汽车,其将采用即将发布的  N
    的头像 发表于 10-20 02:00 225次阅读
    <b class='flag-5'>领先</b>的电子<b class='flag-5'>制造商</b>选择 <b class='flag-5'>NVIDIA</b> DRIVE Hyperion 9,<b class='flag-5'>内置</b> DRIVE Thor 和新一代传感器架构

    全球领先系统制造商推出 NVIDIA AI 就绪型服务器,为企业大幅提升生成式 AI 性能

    with NVIDIA 拉斯维加斯 — VMware Explore — 太平洋时间 2023 年 8 月 22 日 — NVIDIA 宣布,全球领先
    的头像 发表于 08-23 19:10 375次阅读

    SIGGRAPH 2023 | NVIDIA全球数据中心系统制造商大力推动 AI 与工业数字化的发展

    OVX 服务器采用全新 NVIDIA GPU 以加速训练和推理以及图形密集型工作负载,将通过戴尔科技、慧与、联想、超微等公司提供。 洛杉矶 — SIGGRAPH — 太平洋时间 2023
    的头像 发表于 08-09 19:10 281次阅读

    英伟达h800和a100的区别

    英伟达h800和a100的区别 NVIDIA H800和A100NVIDIA的两种不同类型的GPU,具有不同的架构和特点。以下是它们之间的区别: 1. 架构:H800使用
    的头像 发表于 08-08 16:05 1.4w次阅读
    英伟达h800和<b class='flag-5'>a100</b>的区别

    英伟达h800和a100参数对比

    英伟达h800和a100参数对比 NVIDIA H800和A100是两款高端的GPU产品,下面是它们的参数对比: 1.架构: H800采用的是Volta架构,而A100则是
    的头像 发表于 08-08 15:53 2.5w次阅读
    英伟达h800和<b class='flag-5'>a100</b>参数对比

    英伟达A100的简介

    英伟达A100的简介 A100都是非常强大的GPU。英伟达A100、A800、H100、V100也在大模型训练中广受欢迎。特别是OpenAI
    的头像 发表于 08-08 15:17 7570次阅读

    英伟达a100和h100哪个强?

    架构。 英伟达A100是一款基于最新的NVIDIA Ampere架构设计的数据中心GPU,拥有更多的CUDA核心、更高的时钟频率和更大的存储
    的头像 发表于 08-07 17:32 1.1w次阅读

    如何使用NVIDIA Triton 推理服务器来运行推理管道

    使用集成模型在 NVIDIA Triton 推理服务器上为 ML 模型管道提供服务
    的头像 发表于 07-05 16:30 1155次阅读
    如何使用<b class='flag-5'>NVIDIA</b> Triton 推理<b class='flag-5'>服务器</b>来运行推理管道

    COMPUTEX2023 | 全球领先的电子制造商采用 NVIDIA 生成式 AI 和 Omniverse 实现先进工厂的数字化

    年 5 月 29 日— NVIDIA 于今日宣布,全球各地的电子制造商正在使用新的综合参考工作流程来推进其工业数字化进程。这套流程将融合 NVIDIA 的生成式 AI、3D 协作、仿
    的头像 发表于 05-30 01:45 488次阅读
    COMPUTEX2023 | <b class='flag-5'>全球</b><b class='flag-5'>领先</b>的电子<b class='flag-5'>制造商</b>采用 <b class='flag-5'>NVIDIA</b> 生成式 AI 和 Omniverse 实现先进工厂的数字化

    COMPUTEX2023 | NVIDIA MGX 为系统制造商提供模块化架构,以满足全球数据中心多样化加速计算需求

    多样化的加速计算需求,NVIDIA 今天在 COMPUTEX 发布NVIDIA MGX 服务器规范 。该规范为系统制造商提供了一个模块化
    的头像 发表于 05-30 01:40 639次阅读
    COMPUTEX2023 | <b class='flag-5'>NVIDIA</b> MGX 为<b class='flag-5'>系统制造商</b>提供模块化架构,以满足<b class='flag-5'>全球</b>数据中心多样化加速计算需求