0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA推出A100 80GB GPU,助力实现新一轮AI和科学技术突破

我快闭嘴 来源:通信世界网 作者:通信世界网 2020-11-17 09:59 次阅读

NVIDIA于今日发布NVIDIA A100 80GB GPU,这一创新将支持NVIDIA HGX AI超级计算平台。该GPU内存比上一代提升一倍,能够为研究人员和工程师们提供空前的速度和性能,助力实现新一轮AI和科学技术突破。

全新A100采用HBM2e技术,可将A100 40GB GPU的高带宽内存增加一倍至80GB,提供每秒超过2TB的内存带宽。这使得数据可以快速传输到全球最快的数据中心GPU A100上,使研究人员能够更快地加速其应用,处理最大规模的模型和数据集。

NVIDIA应用深度学习研究副总裁Bryan Catanzaro表示:“若想获得HPC和AI的最新研究成果,则需要构建最大的模型,而这需要比以往更大的内存容量和更高的带宽。A100 80GB GPU所提供的内存是六个月前推出的前代产品的两倍,突破了每秒2TB的限制,使研究人员可以应对全球科学及大数据方面最严峻的挑战。”

用于NVIDIA DGXTM A100和NVIDIA DGX StationTM A100系统的NVIDIA A100 80GB GPU也于今日发布,预计将于本季度发货。

领先的系统提供商源讯、戴尔科技富士通、技嘉科技、慧与、浪潮、联想、云达科技、超微预计将于2021年上半年,提供基于HGX A100集成底板的系统,该集成底板搭载4-8个A100 80GB GPU。

满足大流量数据工作负载需求

A100 80GB版本基于A100 40GB的多样化功能,成为需要大量数据存储空间的各类应用的理想选择。

DLRM等推荐系统模型为AI训练提供了涵盖数十亿用户和产品信息的海量表单。A100 80GB可实现高达3倍加速,使企业可以重新快速训练这些模型,从而提供更加精确的推荐。

HGX服务器中搭载的A100 80GB还可训练具有更多参数的最大模型,如GPT-2。GPT-2是具有超常生成文本能力的自然语言处理模型。这就消除了对数据或模型并行架构的需求,因为实现并行架构需要花费大量时间,而且跨多个节点运行缓慢。

凭借其多实例GPU(MIG)技术,A100可分割为多达7个GPU实例,每个实例具有10GB内存。该技术是一种安全的硬件隔离方法,在处理各类较小的工作负载时,可实现GPU最佳利用率。对于如RNN-T等自动语言识别模型的AI推理,单个A100 80GB MIG实例可处理更大规模的批量数据,将生产中的推理吞吐量提高1.25倍。

在TB级零售大数据分析基准上,A100 80GB将其性能提高了2倍,使其成为可对最大规模数据集进行快速分析的理想平台。随着数据的动态更新,企业可以实时做出关键决策。

对于科学应用,A100 80GB可为天气预报和量子化学等领域提供巨大的加速。材料模拟软件Quantum Espresso采用单节点A100 80GB实现了近2倍的吞吐量提升。

RIKEN计算科学中心负责人Satoshi Matsuoka表示:“快速、充足的内存带宽和容量对实现高性能超级计算应用来说至关重要。具有80GB HBM2e GPU内存的NVIDIA A100提供2TB/s的全球最快带宽,可帮助我们大幅提高应用性能。”

A100 80GB的关键特性

A100 80GB具备NVIDIA Ampere架构突破性特性:

·第三代Tensor Core核心:通过全新TF32,将上一代Volta架构的AI吞吐量提高多达20倍。通过FP64,将HPC性能提高多达2.5倍。通过 INT8,将AI推理性能提高多达20倍,并且支持BF16数据格式。

·更大、更快的HBM2e GPU内存:使内存容量增加一倍,在业内率先实现2TB/s以上的内存带宽。

·MIG技术:将单个独立实例的内存增加一倍,可最多提供七个MIG,每个实例具备10GB内存。

·结构化稀疏:将推理稀疏模型的速度提高2倍。

·第三代NVLink和NVSwitch,相较于上一代互连技术,可使GPU之间的带宽增加至原来的两倍,将数据密集型工作负载的GPU数据传输速度提高至每秒600 gigabytes。

NVIDIA HGX AI 超级计算平台

A100 80GB GPU是NVIDIA HGX AI超级计算平台的关键组件。该平台将NVIDIA GPU、NVIDIA NVLink® 、NVIDIA InfiniBand网络以及全面优化的NVIDIA AI和HPC软件堆栈的全部功能整合在一起,以提供最优越的应用性能。该平台使研究人员和科学家能够将HPC、数据分析和深度学习计算技术结合起来,共同推动科学进步。
责任编辑:tzh

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4576

    浏览量

    101631
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4400

    浏览量

    126539
  • AI
    AI
    +关注

    关注

    87

    文章

    26335

    浏览量

    263940
收藏 人收藏

    评论

    相关推荐

    NVIDIA 人工智能开讲 | 什么是 AI For Science?详解 AI 助力科学研究领域的新突破

    ”两大音频 APP上搜索“ NVIDIA 人工智能开讲 ”专辑,众多技术大咖带你深度剖析核心技术,把脉未来科技发展方向! AI For Science (亦称 “
    的头像 发表于 12-25 18:30 509次阅读
    <b class='flag-5'>NVIDIA</b> 人工智能开讲 | 什么是 <b class='flag-5'>AI</b> For Science?详解 <b class='flag-5'>AI</b> <b class='flag-5'>助力</b><b class='flag-5'>科学</b>研究领域的新<b class='flag-5'>突破</b>

    英伟达a100和h100哪个强?英伟达A100和H100的区别

    基于Ampere架构的GPU计算加速器,专为高性能计算、人工智能和机器学习等领域而设计。它拥有高达6912个CUDA核心(在32GB版本中),是目前最强大的数据中心GPU之一。A100
    的头像 发表于 08-09 17:31 3.5w次阅读

    英伟达h800和a100的区别

    英伟达h800和a100的区别 NVIDIA H800和A100NVIDIA的两种不同类型的GPU,具有不同的架构和特点。以下是它们之间的
    的头像 发表于 08-08 16:05 1.4w次阅读
    英伟达h800和<b class='flag-5'>a100</b>的区别

    英伟达h800和a100参数对比

    英伟达h800和a100参数对比 NVIDIA H800和A100是两款高端的GPU产品,下面是它们的参数对比: 1.架构: H800采用的是Volta架构,而
    的头像 发表于 08-08 15:53 2.5w次阅读
    英伟达h800和<b class='flag-5'>a100</b>参数对比

    英伟达A100的算力是多少?

    ,但 A100 的算力是前者的 20 倍。 A100是英伟达推出的一款强大的数据中心GPU,采用全新的Ampere架构。它拥有高达6,912个CUDA核心和40
    的头像 发表于 08-08 15:28 2.4w次阅读

    英伟达A100的优势分析

    英伟达A100的优势分析 在大模型训练中,A100是非常强大的GPUA100是英伟达推出的一款强大的数据中心
    的头像 发表于 08-08 15:25 2624次阅读

    英伟达A100的简介

    A100是英伟达公司推出的一款面向高性能计算(HPC)和人工智能(AI)的加速计算卡。它采用了全球首个基于7nm工艺的数据中心GPU架构Ampere,拥有6912个CUDA核心和43
    的头像 发表于 08-08 15:17 7525次阅读

    英伟达A100是什么系列?

    被暴抢。 英伟达A100是英伟达推出的一款数据中心GPU系列,采用了全新的Ampere架构。它是一款专为深度学习、科学计算、超级计算等工作负载设计的高性能计算解决方案,拥有更高的计算能
    的头像 发表于 08-08 15:13 2148次阅读

    英伟达A100和A40的对比

    英伟达A100和A40的对比 A100是英伟达推出的一款强大的数据中心GPU,采用全新的Ampere架构。它拥有高达6,912个CUDA核心和40G
    的头像 发表于 08-08 15:08 1.3w次阅读

    英伟达A100和4090的区别

    为7.8FP32/3.9FP64 exaFLOPS。 4. 存储:英伟达4090有1TB的高速HBM2存储,英伟达A100则有40GB -80GB HBM2存储,但A100也可以配置为
    的头像 发表于 08-08 11:59 2.4w次阅读

    英伟达A100和V100参数对比

    核心,可以实现高达19.5 TFLOPS的FP32浮点性能和156 TFLOPS的深度学习性能。此外,它还支持NVIDIA GPU Boost技术和32
    的头像 发表于 08-08 11:54 8985次阅读
    英伟达<b class='flag-5'>A100</b>和V<b class='flag-5'>100</b>参数对比

    英伟达A100和H100的区别

    英伟达A100和H100的区别 英伟达A100和H100是两种不同的产品。A100是英伟达在2020年
    的头像 发表于 08-07 18:06 2.4w次阅读

    英伟达a100和a800的区别

    的浮点性能为19.5 TFLOPS,而A800为10.6 TFLOPS。 3. 存储容量不同:A100的显存最大为80 GB,而A800为48 GB。 4.
    的头像 发表于 08-07 17:57 3.2w次阅读

    英伟达a100和h100哪个强?

    版本制程(4N)打造,单块芯片包含 800 亿晶体管。 A100都是非常强大的GPUA100配备高达6,912个CUDA核心,A100是英伟达推出
    的头像 发表于 08-07 17:32 1.1w次阅读

    三星计划为英伟达AI GPU提供HBM3和2.5D封装服务

    nvidiaa100、h100和其他ai gpu目前使用控制台来制造晶片和2.5包的前端工程。nvid
    的头像 发表于 07-20 10:45 557次阅读