0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Google Cloud宣布发布A100“加速器优化” VM A2实例系列的alpha可用性

倩倩 来源:百度粉丝网 2020-09-11 09:59 次阅读

在5月Nvidia推出Ampere A100 GPU之后,Google Cloud宣布在Google Compute Engine上发布A100“加速器优化” VM A2实例系列的alpha可用性。实例由HGX A100 16-GPU平台提供动力,该平台使用NVSwitch互连将两个HGX A100 8-GPU基板组合在一起。

新实例家族针对的是机器学习培训和推理,数据分析以及高性能计算工作负载。根据Nvidia的说法,具有新的张量和稀疏性功能,每个A100 GPU的性能都比上一代GPU提高了20倍。

A2 VM系列提供5种配置,从1个到16个GPU,具有两种不同的CPU网络对GPU的比率。由于Ampere的多实例组(MIG)功能,每个GPU可以划分为七个不同的GPU。

AI工作量要求最高的客户将能够访问完整的16-GPU实例,该实例提供了总计640GB的GPU内存和1.3TB的系统内存,这些实例通过NVSwitch连接,总带宽高达9.6TB / s。目前尚未透露A2系列的价格,但直接购买此硬件将花费近40万美元,这证明了基于云的方法的民主化力量,其中最新的HPC硬件的价格仅为后者的一小部分。 -需求。

回想一下,虽然Nvidia的DGX A100系统配备了64核AMD第二代Eypc Rome处理器,但 HGX平台可以配置 AMD或Intel处理器。Google Cloud选择了后者,A2机器提供了12到96个Intel Cascade Lake vCPU,以及可选的本地SSD(最高3TB)。

在安培(Ampere)不到两个月的时间里,Google Cloud推出了新的A2系列 。这是从GPU芯片发布到云采用的创纪录时间,反映了在AI工作负载的推动下,对云中HPC的需求不断增加。一直在稳步前进,以加快云提供商对最新加速器设备的实施。Nvidia的K80 GPU花费了两年的时间才能将其导入云(AWS),Pascal的节奏约为一年,Volta的节奏为五个月,而Ampere则只有数周。谷歌指出,它也是首家推出英伟达T4图形处理器的云提供商。(Google也是 第一个使用Pascal P100 实例; AWS跳过了Pascal,但 首先使用了Volta。)

Google Cloud还宣布即将为Nvidia A100提供对Google Kubernetes Engine,Cloud AI Platform和其他服务的支持。

根据Ampere发行的声明,我们可以预期其他著名的云供应商采用A100,包括Amazon Web Services,Microsoft Azure,百度云,腾讯云和阿里云。

目前,A2实例可通过私有Alpha程序获得,Google报告说,将于今年晚些时候宣布其公共可用性和定价。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • Google
    +关注

    关注

    5

    文章

    1714

    浏览量

    56797
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4426

    浏览量

    126755
  • 机器学习
    +关注

    关注

    66

    文章

    8136

    浏览量

    130604
收藏 人收藏

    评论

    相关推荐

    《 AI加速器架构设计与实现》+第2章的阅读概括

    。 从名字上就能看出来书里可能覆盖的内容是和CNN加速器有关的内容了。 作者在前言里说这本书主要讨论Inference(推理)的过程,“主要讨论神经网络硬件,尤其是芯片设计层面的内容”。这本书的第2,3章
    发表于 09-17 16:39

    使用SDAccel进行主机及加速器代码优化

    电子发烧友网站提供《使用SDAccel进行主机及加速器代码优化.pdf》资料免费下载
    发表于 09-15 16:21 0次下载
    使用SDAccel进行主机及<b class='flag-5'>加速器</b>代码<b class='flag-5'>优化</b>

    升腾910和英伟达A100的区别

    升腾910和英伟达A100的区别 升腾910和英伟达A100代表着两个不同的领域,这两种芯片是为不同的目的设计的。升腾910是华为公司开发的一种AI芯片,而英伟达A100是一种数据中心的GPU
    的头像 发表于 08-31 17:06 4.5w次阅读

    Google推出基于AmpereOne处理器的C3A实例

    2023 年 8 月 29 日,在 Google Cloud NEXT’23 大会上,Google 正式宣布推出新款计算优化
    的头像 发表于 08-31 15:37 430次阅读

    ARM Cortex-A510核心软件优化指南

    的有序流水线·连接到外部中断分配器的通用中断控制(GIC)CPU接口·支持来自外部系统计数的64位计数输入的通用计时接口·实施可靠可用性
    发表于 08-28 08:15

    英伟达a100和h100哪个强?英伟达A100和H100的区别

    基于Ampere架构的GPU计算加速器,专为高性能计算、人工智能和机器学习等领域而设计。它拥有高达6912个CUDA核心(在32GB版本中),是目前最强大的数据中心GPU之一。A100支持更快的训练速度和更大的模型容量,适用于需要进行大规模并行计算的应用程序。 H
    的头像 发表于 08-09 17:31 3.6w次阅读

    英伟达A100的简介

    英伟达A100的简介 A100都是非常强大的GPU。英伟达A100、A800、H100、V100也在大模型训练中广受欢迎。特别是OpenAI
    的头像 发表于 08-08 15:17 7637次阅读

    英伟达A100是什么系列

    英伟达A100是什么系列? 全球都在关注生成式人工智能;特别是OpenAI发布ChatGPT以来,生成式人工智能技术一下就被拔高。在大模型训练中,A100是非常强大的GPU。英伟达的A
    的头像 发表于 08-08 15:13 2257次阅读

    英伟达A100和A40的对比

    TFLOPS的FP32浮点性能和156 TFLOPS的深度学习性能。 英伟达A100和A40是英伟达公司推出的两个数据中心加速器。它们都是基于英伟达的Ampere架构设计的最新GPU,支持全新的NVIDIA
    的头像 发表于 08-08 15:08 1.3w次阅读

    英伟达A100和3090的区别

    英伟达A100和3090的区别 英伟达A100是一款面向数据中心的计算加速器,其主要优势是支持数据中心最新的AI、机器学习和高性能计算工作负载。它配备了专门的张量核心和加速器,可以比普
    的头像 发表于 08-07 18:54 2903次阅读

    英伟达A100和H100的区别

    技术,具有超高的性能和能效。 H100则是英伟达推出的一款专门针对HPC领域的加速器卡产品,主要用于科学计算、气象预测、天文学等领域的高性
    的头像 发表于 08-07 18:06 2.4w次阅读

    英伟达a100显卡算力介绍

    的HBM2E内存,拥有40GB高速内存,传输带宽达到1.6TB/s,可大大提高显卡的运算速度和效率。 A100显卡还支持Tensor Cores加速器、INT8和INT4混合精度计算等技术,可最大
    的头像 发表于 08-07 17:59 5918次阅读

    英伟达a100和a800的区别

    的浮点性能为19.5 TFLOPS,而A800为10.6 TFLOPS。 3. 存储容量不同:A100的显存最大为80 GB,而A800为48 GB。 4. AI加速器不同:A100配备Tensor
    的头像 发表于 08-07 17:57 3.2w次阅读

    英伟达a100和h100哪个强?

    英伟达a100和h100哪个强? 英伟达A100比H100更强。英伟达A100在处理大型模型和数据集时可能比V
    的头像 发表于 08-07 17:32 1.1w次阅读

    英特尔媒体加速器参考软件发行说明

    使用 Linux* 版本的这些发布注释来审查 Intel 媒体加速器参考软件的最新修改和改进。 您将会发现PDF 中的最新功能、 最著名的配置、 硬件和软件兼容以及已知问题 。
    发表于 08-04 06:57