0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA“全堆栈计算”策略应对AI加速计算时代挑战

荷叶塘 来源:电子发烧友网 作者:程文智 2022-11-10 15:29 次阅读

神经网络机器学习技术的推动下,特别是2016年谷歌的AlphaGo在多次与人类顶尖围棋棋手的对战中大获全胜后,给全世界做了一次人工智能AI科普,人工智能的新一波发展浪潮开始了。

“计算技术正在蓬勃发展,推动这枚火箭的引擎是加速计算,而燃料则是 AI。” NVIDIA 创始人兼首席执行官黄仁勋在2022秋季GTC 大会主题演讲中表示。也就是说AI加速计算时代已经悄然来临。

近10年来,数据量和数据处理方式都发生了很大的改变。大量的数据不再是人类事件生成,而是各种类型的传感器和设备所生成,数据量正在呈指数级在往上增长。比如说,智能手表会收集用户运动健身和健康状况相关的详细数据,自动驾驶汽车在行驶过程中会不断收集周围环境的信息,据统计一辆汽车一小时就可以生成5TB的数据,未来随着自动驾驶汽车数量的持续增长,将会产生庞大的数据量。

随着数据量的爆炸式增长,人们开始使用AI来分析数据,因为AI不仅能够分辨出语音和视频模式,强化学习技术,还能够从大量的可能性中识别出最佳结果,从而为使用者提供最有价值的分析。而NVIDIA在AI加速计算领域这几年一路狂奔,取得亮眼成绩。

谈到原因,黄仁勋认为这与NVIDIA这些年来持续推行“全堆栈计算”策略是分不开的。“为了在加速计算领域取得成功,我们不再只是做别人曾经做的事情,而是把它整合成一家纵向一体化的公司。”在他看来,“在AI加速计算领域,如果不垂直整合,就不会成功。因为没有人会专门为你写操作系统,在云端、超级计算和企业中,也没有人会开发你的分布式操作系统,而没有完整的堆栈,用户就无法使用你的平台,所以你别无选择,只能自己动手。”

黄仁勋认为,客户要购买的不是NVIDIA的芯片,而是NVIDIA的计算堆栈。他同时强调,NVIDIA的全堆栈,主要包括四大平台,即NVIDIA RTX、NVIDIA HPC、NVIDIA AI和NVIDIA Omniverse。

NVIDIA RTX:推出全新架构RTX 40系列GPU

NVIDIA RTX是NVIDIA在Siggraph 2018上推出的全新GPU架构,通过两个全新处理器来扩展可编程着色器。RT Core 用于加速实时光线追踪,Tensor Core 用于处理矩阵运算,这是深度学习的核心。

在2022 秋季 GTC 大会上,NVIDIA宣布推出其第3代RTX架构------Ada Lovelace,这代 RTX 以数学家 Ada Lovelace 的名字命名,她被公认为世界上第一位计算机程序员


图:NVIDIA Racer RTX 是利用 GeForce RTX 40 系列 GPU 和 NVIDIA DLSS 3 创建未来游戏内容的例子


同时,NVIDIA还推出了基于Ada Lovelace架构的RTX 40系列GPU,该系列GPU采用了TSMC的4N工艺,可集成760亿个晶体管和超过16000个CUDA核心。其主要技术创新包括:

  • 流式多处理器具有高达83 TFLOPS 的着色器能力,吞吐量超过上一代产品2倍。
  • 第三代RT Core的有效光线追踪计算能力达到191 TFLOPS,是上一代产品2.8倍。
  • 第四代Tensor Core具有高达1.32 Petaflops 的 FP8 张量处理性能,超过上一代使用 FP8 加速性能的5倍。
  • 着色器执行重排序(SER)通过即时重新安排着色器负载来提高执行效率,从而更好地利用 GPU 资源。作为与 CPU 的乱序执行一样的重大创新,SER 为光线追踪带来最高可达3倍的性能提升,整体游戏性能提升可高达25%。
  • Ada光流加速器带来2倍的性能提升,使 DLSS 3 能够预测场景中的运动,使神经网络能够在保持图像质量的同时提高帧率。
  • 架构上的改进,与 TSMC 4N 定制工艺技术紧密结合,实现了高达2倍的性能功耗比飞跃。
  • 双NVIDIA编码器(NVENC)将输出时间至多缩短一半,并支持 AV1。OBS、Blackmagic Design DaVinci Resolve、Discord 以及更多的公司都已在采用 NVENC AV1 编码器。



在产品方面,NVIDIA推出了首款基于Ada Lovelace架构的工作站显卡NVIDIA RTX 6000,该工作站显卡具有142个第三代RT Core、568个第四代Tensor Core、18,176个CUDA核心,以及48GB显存,可为工程师、设计师和科学家提供助力,满足在虚拟世界中构建世界所需的苛刻的内容创建、渲染、人工智能和模拟工作负载的需求。


图:NVIDIA RTX 6000具体参数(来源:NVIDIA官网)


据NVIDIA介绍,与其前代产品相比,全新的RTX 6000可在企业环境中提供2~4倍的性能提升,包括最多2倍的光追性能、AI训练性能、及单精度浮点性能等。NVIDIA还为其配备了48GB支持ECC的GDDR6显存,以支持最大体积的3D模型渲染或AI计算。此外,该RTX 6000采用了PCIe 4×16接口,整卡最大功耗为300W。

值得注意的是,全新的RTX 6000的开始出货时间应该是今年12月。

NVIDIA HPC:具有AI支持的全堆栈科学计算

NVIDIA HPC是NVIDIA的科学计算堆栈,在AI的支持下,其GPU、CPU、DPU和软件将共同帮助数据中心扩大规模,为量子计算、分子动力学、流体动力学、气候研究等科学研究做出支持。

NVIDIA HPC包括了HOLOSCAN(边缘计算和人工智能平台可捕获和分析来自医疗设备和科学仪器的数据)、MODULUS、CUQANTUM(量子计算)等数据中心工作负载和技术。

具体来看,针对HPC的HOLOSCAN SDK可以帮助科学家和研究人员加速科学仪器应用的相关发现。该SDK引入了用于创建管道流边缘的高性能框架,允许用户用C++Python和jax开发应用程序。而且后续还会推出更多的功能。

NVIDIA Modulus是用于开发基于物理学的机器学习神经网络模型的平台。它允许用户以治理偏微分方程或PDES的形式融合物理学的力量。用数据建立高保真的参数化代用模型,具有近乎实时的延时。它可以支持处理AI驱动的物理问题以及复杂的非线性多物理系统设计数字孪生模型等工作。而且,它在提供相同准确性的同时,比单独的模拟快了110万倍。

在量子计算方面,已经有25个国家级的量子计划在运作了,过去12个月有超过2100篇量子计算相关的文章得到了发布。而且,目前已经出现了超过250家量子计算初创企业。NVIDIA也在2022 秋季 GTC 大会上推出了由优化库和工具优化构建的SDK------cuQuantum和混合量子经典应用开发平台QODA。

其中,cuQuantum可用于量子电路模拟开发,借助cuQuantum,一台32个节点的DGX Pod,可以模拟一台40量子位的量子计算机。目前,cuQuantum得到广泛运用,包括AWS、Google、IBM、Oracle以及很多初创公司和超算中心都在采用该SDK,比如Oracle正在为OCI云构建量子模拟虚拟机;AWS将cuQuantum集成到其Braket量子计算服务中,实现了900倍的加速和3.5倍的成本缩减。

而QODA是一个开放的,与处理器无关的量子平台,适用于混合量子加速计算,它为研究人员提供了量子加速计算的编程模型。

NVIDIA AI:本质上是现代AI的操作系统

在黄仁勋看来,NVIDIA AI本质上是现代AI的操作系统,它从数据采集、数据处理,发展到深度学习,再到如今的的图表分析和图表学习系统,再到推论工具Triton,不断在向前演化。“所以这个端到端平台是NVIDIA人工智能的一部分。如果你在任何地方做机器学习或任何类型的人工智能模型,你都可以使用NVIDIA AI。”他表示。

据他介绍,NVIDIA通过550个SDK和AI模型为约3000个应用提供加速。在过去12个月中对超过100个SDK进行了更新,并推出了25个新SDK,且每次更新都会提高计算机组合的性能和吞吐量。

下面看看几个比较典型的NVIDIA AI应用:
Forecast net:以前所未有的需求和准确性预测极端天气。Forecast net在不到两秒钟的时间内就能生成一个星期的预报,比欧洲中程天气预报中心的综合预报系统(一种最先进的数值天气预报模型)快了几个数量级。而且它的准确度相当或更好。

Morpheus:它是AI网络安全框架,旨在使整个安全数据推断更容易、更快、更强大。它由许多模块组成,可以以各种方式连接,允许开发人员创建整个潜能。在输入方面,Morpheus与数据无关。它提供了以下预先训练好的模型,以简化实施并加快它们的模型性能。
1.数字指纹识别——识别凭证使用行为的变化,将其归类为人类与机器的互动和机器与机器的互动;
2.钓鱼网站检测——分析整个原始电子邮件,将其分类为挂垃圾邮件或钓鱼网站;
3.泄露的敏感数据分类——发现泄露的凭证钥匙、密码、信用卡号码、银行账户号码等的分类。
4.异常行为分析检测——以检测像加密恶意软件这样的东西;
5.基于图形神经网络的欺诈检测——帮助你用以前所需的一小部分标记数据获得高准确率的结果。

Triton推理服务器:Triton 是一款开源的推理服务软件,可助力团队从任何框架、本地存储或从任何基于 GPU 或 CPU 的基础架构、云、数据中心或边缘的 Google Cloud 平台或 AWS S3 中部署经过训练的 AI 模型。据悉,Triton的下载量已超过300万次,比去年增加了300%。Triton可以在所有主要公有云中使用,并可集成到领先的MLOps平台中。目前已受到超过35000家公司的青睐。

cuOPT:它是建立在RAPIDS之上的最新库之一。cuOPT是一个AI物流软件应用程序,可以实现近乎实时的路由优化。与最先进的CPU解决方案相比,它的速度提高了100倍以上,在300个humberger基准问题中的190个问题上的准确度创下了世界纪录,并且可以扩展到数万个地点,cuOPT极大地方便了物流和运筹学开发人员。

NVIDIA Omniverse:构建和运行元宇宙应用的平台

Omniverse是一个实时的大型3D数据库,基于USD构建的网络,连接3D世界。同时它也是是一个计算平台,该平台适用于从产品设计和造型,到工程策划、制造、营销和运营的整个产品生命周期。

在2022秋季GTC 大会上,NVIDIA宣布了Omniverse的重大更新:

  • 支持 Ada Lovelace GPU,在光线追踪和大型场景性能方面实现巨大飞跃;
  • 基于 GAN 和扩散模型的新型神经渲染工具;
  • OmniGraph 是一个图形执行引擎,可通过程序化的方式控制行为、动作和行动;
  • Omniverse Physics 的重大更新,用来处理复杂的多连接部件对象的运动情况;
  • 全新的 Cloud XR,支持在 VR 中实现 Ada 强大的光线追踪功能;
  • 首个用于合成数据生成和数字孪生模拟的 SimReady 素材库;
  • Replicator 是备受青睐的 Omniverse 应用之一,用来生成合成数据,从而训练自动驾驶汽车、机器人和各种计算机视觉模型。
  • 新的 Omniverse JT 连接器 则是一款大型应用,Siemens 发明了 JT,这是产品生命周期管理的行业标准语言,也是 NX、Creo、Catia 和 Inventor 等 CAD 系统的互操作格式,JT 连接器使得工业和制造业可以运用 Omniverse。目前,Omniverse已拥有150个连接器,这些都是全球市值 100 万亿美元的产业所使用的工具和平台。这些连接器将 Omniverse 的应用范围拓展到各种公司,覆盖零售、交通、电信、制造、媒体和娱乐、消费品和奢侈品,以及供应链和物流等大型行业领域。


其实,Omniverse 是一个新的计算平台,需要采用新的计算系统,Omniverse 计算平台由三部分构成:RTX 计算机(供创作者、设计师和工程师使用)、OVX 服务器(用来托管与 Nucleus 数据库的连接并运行虚拟世界模拟),以及第三部分:NVIDIA GDN(进入 Omniverse 的门户)。

通过 GeForce Now,NVIDIA构建了一个全球图形交付网络(即 GDN),该网络覆盖 100 个地区,为之提供响应灵敏的超快 RTX 图形内容交付网络 (CDN)。通过 NVIDIA RTX PC、云端的 NVIDIA GPU 和 NVIDIA GDN,NVIDIA打造了一个覆盖全球的 Omniverse 计算平台。

在今年9月20日,NVIDIA宣布推出第二代NVIDIA OVX,该系统基于Ada Lovelace GPU 架构的 NVIDIA® L40 GPU,能够为构建复杂的工业数字孪生提供强大的算力和性能支持。

L40 GPU 包含第三代 RT Core 和第四代 Tensor Core,能够为在 OVX 系统上运行的 Omniverse 工作负载提供强大功能,包括加速的光线追踪和路径追踪材质渲染、物理级精确的模拟以及逼真的 3D 合成数据生成。L40 也会在主要 OEM 厂商的 NVIDIA 认证系统服务器中提供,以驱动数据中心的 RTX 工作负载。

具体规格方面,每个OVX 服务器节点带有8个NVIDIA L40 GPU和3个ConnectX-7 网卡,可提供100/200/400G网络速率。如果 Omniverse工作负载对性能和规模提出更高要求,这些服务器可以通过 NVIDIA Spectrum™-3以太网平台部署在NVIDIA OVX POD和 SuperPOD配置上。

黄仁勋认为,Omniverse是用来构建和运行元宇宙应用的平台,无论是数字世界和现实世界在何处教会,Omniverse都能发挥作用。此外,Omniverse还有一项重要的用途就是机器人开发,而机器人将会是AI的新一波浪潮。

结语

此外, NVIDIA在2022秋季GTC 大会上还带来了新的边缘AI计算平台IGX平台,IGX平台由NVIDIA IGX Orin超级计算机驱动,能更简便的为制造、物流、医疗等安全敏感行业带来了安全的工作环境;史诗级的超级芯片DRIVE Thor(雷神),这款SoC将于2025年上市,其AI性能高达2000TOPS;以及Jetson Orin Nano,它可运行NVIDIA Isaac机器人堆栈,并具有ROS 2 GPU加速框架,速度比之前大受欢迎的Jetson Nano快80倍等产品更新。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 机器人
    +关注

    关注

    206

    文章

    27033

    浏览量

    201393
  • 虚拟现实
    +关注

    关注

    15

    文章

    2237

    浏览量

    92103
  • 数据中心
    +关注

    关注

    15

    文章

    4187

    浏览量

    70007
  • AI
    AI
    +关注

    关注

    87

    文章

    26443

    浏览量

    264044
  • 人工智能
    +关注

    关注

    1776

    文章

    43845

    浏览量

    230596
收藏 人收藏

    评论

    相关推荐

    NVIDIA携手初创公司引领气候AI创新

    应对气候变化这一全球性挑战时,AI与可持续计算正成为关键工具。NVIDIA初创加速计划的成员公
    的头像 发表于 03-27 10:29 158次阅读

    Cadence与NVIDIA联合推出利用加速计算和生成式AI重塑设计

    中国上海,2024 年 3 月 25 日——楷登电子(美国 Cadence 公司,NASDAQ:CDNS)近日宣布,公司将深化与 NVIDIA 在 EDA、系统设计与分析、数字生物学和人工智能领域的多年合作,推出两款变革性解决方案,利用加速
    的头像 发表于 03-25 14:36 222次阅读

    NVIDIA cuPQC帮助开发适用于量子计算时代的加密技术

    NVIDIA cuPQC 可为相关开发者提供加速计算支持,帮助开发适用于量子计算时代的加密技术。cuPQC 库可利用 GPU 并行性,为要求
    的头像 发表于 03-22 09:53 116次阅读

    NVIDIA 推出 Blackwell 架构 DGX SuperPOD,适用于万亿参数级的生成式 AI 超级计算

    块 Blackwell GPU 连成一个整体,由NVIDIA 系统专家加速即时 AI 基础设施的部署       美国加利福尼亚州圣何塞 —— GTC —— 太平洋时间 2024 年 3 月 18
    发表于 03-19 10:56 106次阅读
    <b class='flag-5'>NVIDIA</b> 推出 Blackwell 架构 DGX SuperPOD,适用于万亿参数级的生成式 <b class='flag-5'>AI</b> 超级<b class='flag-5'>计算</b>

    使用NVIDIA Triton推理服务器来加速AI预测

    这家云计算巨头的计算机视觉和数据科学服务使用 NVIDIA Triton 推理服务器来加速 AI 预测。
    的头像 发表于 02-29 14:04 208次阅读

    加速计算卡与AI显卡有什么区别?

    加速计算卡与AI显卡有什么区别? 加速计算卡与AI显卡是两种不同的硬件设备,它们在设计和功能上有
    的头像 发表于 01-09 14:10 507次阅读

    SC23 | 新型加速节能 AI 系统开创超级计算的新时代

    世界各地的研究人员将在配备最新 NVIDIA Hopper GPU 和 NVIDIA Grace Hopper 超级芯片的系统上,借助生成式 AI 和 HPC 来应对科学和工业领域的重
    的头像 发表于 11-15 18:45 333次阅读
    SC23 | 新型<b class='flag-5'>加速</b>节能 <b class='flag-5'>AI</b> 系统开创超级<b class='flag-5'>计算</b>的新<b class='flag-5'>时代</b>

    NVIDIA 为全球领先的 AI 计算平台 Hopper 再添新动力

    Tensor Core GPU 和领先的显存配置,可处理生成式 AI 与高性能计算工作负载的海量数据。   NVIDIA H200 是首款采用 HBM3e 的 GPU,其运行更快、更大的显存容量将进一步
    发表于 11-14 14:30 112次阅读
    <b class='flag-5'>NVIDIA</b> 为全球领先的 <b class='flag-5'>AI</b> <b class='flag-5'>计算</b>平台 Hopper 再添新动力

    Blackwell GB100能否在超级计算机和AI市场保持领先优势?

    NVIDIA 下一代 Blackwell GB100 传将采用芯片堆栈设计提升效能和效率,但也面临工艺和封装的挑战,能否在超级计算机和 AI
    的头像 发表于 10-24 17:43 594次阅读

    Oracle 云基础设施提供新的 NVIDIA GPU 加速计算实例

    生成式 AI 和大语言模型(LLM)不断推动突破性创新,训练和推理对算力的需求也随之急剧上升。 这些现代生成式 AI 应用需要全栈加速计算,首先要有能够快速、准确处理大量工作负载的先进
    的头像 发表于 09-25 20:40 287次阅读
    Oracle 云基础设施提供新的 <b class='flag-5'>NVIDIA</b> GPU <b class='flag-5'>加速</b><b class='flag-5'>计算</b>实例

    生成式AI时代要来了吗 NVIDIA生成式AI获新突破

    这些性能强大的新系统将利用 NVIDIA Omniverse 平台加速计算密集度的复杂应用,包括 AI 训练和推理、3D 设计和可视化、视频处理、工业数字化等。
    发表于 08-23 14:20 239次阅读

    NVIDIA 与 Hugging Face 将连接数百万开发者与生成式 AI 超级计算

    年 8 月 8 日 — NVIDIA 与 Hugging Face 宣布建立合作伙伴关系,为数百万开发者提供生成式 AI 超级计算服务,帮助他们构建大语言模型(LLM)和其他高级 AI
    发表于 08-09 11:41 108次阅读
    <b class='flag-5'>NVIDIA</b> 与 Hugging Face 将连接数百万开发者与生成式 <b class='flag-5'>AI</b> 超级<b class='flag-5'>计算</b>

    NVIDIA 邀您参加 —— AI 软硬件协同开发技术交流与人才发展分享会

    大模型时代NVIDIA 渴望携志同者一起前进,与道合者一起奔跑,共同创造更多可能!NVIDIA GPU 计算专家团队(DevTech)与 GPU
    的头像 发表于 06-26 19:35 261次阅读
    <b class='flag-5'>NVIDIA</b> 邀您参加 —— <b class='flag-5'>AI</b> 软硬件协同开发技术交流与人才发展分享会

    NVIDIA 招聘 | NVIDIA 最新热招岗位!一起迎接未来加速计算

    NVIDIA 计算架构团队和  NVIDIA 计算专家团队正在热招! 如果你对加速计算领域充满热
    的头像 发表于 06-14 18:35 660次阅读

    U 设计周 2023 邀您探索 NVIDIA AI 和 Omniverse 如何加速设计创作,延伸想象力

    200 位演讲嘉宾,500 多个品牌,200 多位国内外艺术家将齐聚会场。 NVIDIA 全球副总裁、亚太区专业可视化计算总经理沈威,受邀出席 Ucan 专业主论坛,并将发表题为《拥抱 AI 设计新纪元
    的头像 发表于 05-27 17:45 564次阅读
    U 设计周 2023 邀您探索 <b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> 和 Omniverse 如何<b class='flag-5'>加速</b>设计创作,延伸想象力