0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Meta RSC或将成为最大的NVIDIA DGX A100客户系统

NVIDIA英伟达企业解决方案 来源:NVIDIA英伟达企业解决方案 作者:NVIDIA英伟达企业解 2022-01-27 17:03 次阅读

Meta的AI超级计算机是迄今为止最大的NVIDIA DGX A100客户系统。该系统将为Meta的AI研究人员提供5百亿亿次级AI计算性能,采用了最先进的NVIDIA系统、InfiniBand网络和软件,实现了数千个GPU集群的系统优化。

Meta Platforms非常认可NVIDIA,为其有望成为有史以来最强大的研究系统选择了NVIDIA的先进技术。

于今日发布的AI研究超级集群(AI Research SuperCluster,缩写RSC)已在训练新模型以推动AI发展。

全面部署后,Meta的RSC预计将成为最大的NVIDIA DGX A100客户系统。

Meta在一篇博客文章中表示:“我们希望RSC帮助我们建立全新的AI系统,例如可以为多个不同语言的团队提供实时语音翻译,使他们可以在研究项目上无缝协作,甚至一起玩AR游戏。”

训练最大的AI模型

当RSC在今年晚些时候完全建成时,Meta将用它来训练具有超过1万亿个参数的AI模型。这将推动自然语言处理等领域的发展,比如实时识别不法内容等工作。

除了实现规模性能之外,Meta还将超高的可靠性、安全性、隐私性以及处理“各类AI模型”的灵活性作为RSC的关键指标。

Meta的AI研究超级集群拥有数百个NVIDIA DGX系统并通过NVIDIA Quantum InfiniBand网络相连接,助力Meta AI研究团队提高工作速率。

性能大揭秘

目前,此全新AI超级计算机已经部署了760个NVIDIA DGX A100系统作为其计算节点。共有6080个NVIDIA A100 GPU,通过NVIDIA Quantum 200Gb/s InfiniBand网络连接,可提供1895(千万亿次)TF32计算性能。

尽管受到新冠疫情的影响,这样一台可运行的AI超级计算机从想法到实现,RSC仅用了18个月!“功臣”之一便是采用NVIDIA DGX A100技术作为基石。

Penguin Computing是NVIDIA合作伙伴网络中负责RSC交付的合作伙伴。除了760个DGX A100系统和InfiniBand网络之外,Penguin还为Meta提供管理服务和AI基础架构优化,包括一个46PB高速缓存的Altus系统。

性能提升20倍

这是Meta第二次选择NVIDIA技术作为其研究平台的基础。2017年,Meta打造了第一代AI研究基础架构,配备了22000个NVIDIA V100 Tensor Core GPU,每日可处理35000项AI训练工作。

Meta的早期基准测试显示,RSC训练大型NLP模型的速度比之前的系统快3倍,运行计算机视觉工作的速度比之前的系统快20倍。

在今年晚些时候的第二阶段,RSC将扩展至16000个GPU。Meta认为届时RSC将提供高达5百亿亿次级混合精度AI计算性能,并且Meta希望通过扩展RSC的存储系统,以每秒16TB的速度提供高达1EB的数据。

可扩展架构

NVIDIA AI技术适用于任何规模的企业应用。

NVIDIA DGX包含一个完整的NVIDIA AI软件栈,可以轻松地从单个系统扩展至完整的DGX SuperPOD,可以在本地或主机托管商处运行。客户亦可以通过NVIDIA DGX Foundry租用DGX系统。

原文标题:Meta与NVIDIA联合打造大型AI研究超级计算机

文章出处:【微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4598

    浏览量

    101769
  • 计算机
    +关注

    关注

    19

    文章

    6653

    浏览量

    84598
  • AI
    AI
    +关注

    关注

    87

    文章

    26485

    浏览量

    264118

原文标题:Meta与NVIDIA联合打造大型AI研究超级计算机

文章出处:【微信号:NVIDIA-Enterprise,微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    NVIDIA全面加快Meta Llama 3的推理速度

    Meta 最新开源大语言模型采用 NVIDIA 技术构建,其经过优化后可在云、数据中心、边缘和 PC 的 NVIDIA GPU 上运行。
    的头像 发表于 04-23 09:52 131次阅读

    英伟达v100A100的差距有哪些?

    英伟达v100A100的差距有哪些? 在当今人工智能和深度学习技术日益发展的时代,高性能计算机显卡已成为支持这些技术发展的关键。英伟达是高性能计算机显卡领域的领导者之一,其v100
    的头像 发表于 08-22 16:46 1.6w次阅读

    英伟达a100和h100哪个强?英伟达A100和H100的区别

    英伟达a100和h100哪个强? 就A100和H100这两个产品来说,它们虽然都是英伟达公司的高性能计算产品,但是面向的市场和应用场景不同,所以不能简单地说哪个更强。
    的头像 发表于 08-09 17:31 3.6w次阅读

    英伟达h800和a100的区别

    英伟达h800和a100的区别 NVIDIA H800和A100NVIDIA的两种不同类型的GPU,具有不同的架构和特点。以下是它们之间的区别: 1. 架构:H800使用
    的头像 发表于 08-08 16:05 1.4w次阅读
    英伟达h800和<b class='flag-5'>a100</b>的区别

    英伟达h800和a100参数对比

    英伟达h800和a100参数对比 NVIDIA H800和A100是两款高端的GPU产品,下面是它们的参数对比: 1.架构: H800采用的是Volta架构,而A100则是
    的头像 发表于 08-08 15:53 2.5w次阅读
    英伟达h800和<b class='flag-5'>a100</b>参数对比

    英伟达a100有国产替代吗?

    英伟达a100有国产替代吗? 目前尚未出现明确可替代英伟达A100的国产产品,但中国国内的企业正在积极推进相关领域的研发和生产。例如,中国科技巨头华为正在开发自主研发的AI芯片,其已发布的昇腾910
    的头像 发表于 08-08 15:37 3702次阅读

    英伟达A100的算力是多少?

    英伟达A100的算力是多少? 英伟达A100的算力为19.5 TFLOPS(浮点运算每秒19.5万亿次)。 V100 用 300W 功率提供了 7.8TFLOPS 的推断算力,有 210 亿个晶体管
    的头像 发表于 08-08 15:28 2.4w次阅读

    英伟达A100的优势分析

    英伟达A100的优势分析 在大模型训练中,A100是非常强大的GPU。A100是英伟达推出的一款强大的数据中心GPU,采用全新的Ampere架构。拥有高达6,912个CUDA核心和40GB的高速
    的头像 发表于 08-08 15:25 2671次阅读

    英伟达A100的简介

    ,内存容量高达40GB。同时,英伟达A100也支持第二代NVIDIA NVLink和PCIe 4.0,具备更高的数据传输带宽和更快的计算速度。该产
    的头像 发表于 08-08 15:17 7636次阅读

    英伟达A100和A40的对比

    TFLOPS的FP32浮点性能和156 TFLOPS的深度学习性能。 英伟达A100和A40是英伟达公司推出的两个数据中心加速器。它们都是基于英伟达的Ampere架构设计的最新GPU,支持全新的NVIDIA
    的头像 发表于 08-08 15:08 1.3w次阅读

    英伟达A100和4090的区别

    英伟达A100和4090的区别 英伟达A100和4090都是英伟达的高性能计算卡型号。它们之间的主要区别在于: 1. 架构:英伟达A100采用的是Ampere架构,而4090采用的是Volta架构
    的头像 发表于 08-08 11:59 2.5w次阅读

    英伟达A100和V100参数对比

    英伟达A100这个AI芯片怎么样?英伟达A100是一款基于英伟达Ampere架构的高性能计算卡,主要面向数据中心和高性能计算领域。其拥有高达6912个CUDA核心和432个Turing Tensor
    的头像 发表于 08-08 11:54 9438次阅读
    英伟达<b class='flag-5'>A100</b>和V<b class='flag-5'>100</b>参数对比

    英伟达a100显卡算力介绍

    的HBM2E内存,拥有40GB高速内存,传输带宽达到1.6TB/s,可大大提高显卡的运算速度和效率。 A100显卡还支持Tensor Cores加速器、INT8和INT4混合精度计算等技术,可最大
    的头像 发表于 08-07 17:59 5912次阅读

    英伟达a100和a800的区别

    的浮点性能为19.5 TFLOPS,而A800为10.6 TFLOPS。 3. 存储容量不同:A100的显存最大为80 GB,而A800为48 GB。 4. AI加速器不同:A100配备Tensor
    的头像 发表于 08-07 17:57 3.2w次阅读

    英伟达a100和h100哪个强?

    架构。 英伟达A100是一款基于最新的NVIDIA Ampere架构设计的数据中心GPU,拥有更多的CUDA核心、更高的时钟频率和更大的存储
    的头像 发表于 08-07 17:32 1.1w次阅读