0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英伟达全球首发超级AI芯片 训练大模型成本更低

jf_WZTOguxH 来源:AI前线 2023-08-09 14:42 次阅读

黄仁勋向数千名开发者和图形专业人士发表讲话,宣布更新 GH200 Grace Hopper 超级芯片英伟达 AI Workbench,并将把生成式 AI 引入英伟达 Omniverse。

随着生成式 AI 技术继续席卷整个数字化与超互连世界,英伟达创始人兼 CEO 黄仁勋决定以雷霆万钧的气势重回全球顶级计算机图形会议 SIGGRAPH。

1黄仁勋:生成式 AI 开启了人工智能的“iPhone 时刻”

本周二,黄仁勋在洛杉矶举行的一场特别演讲中对数千名观众表示,“生成式 AI 时代即将到来。如果大家愿意,也可以称之为人工智能的 iPhone 时刻。”

他带来的亮点包括下一代 GH200 Grace Hopper 超级芯片平台、英伟达 AI Workbench(新的统一工具包,可在英伟达 AI 平台上引入更精简的模型调整和部署方式),以及搭载生成式 AI 和 OpenUSD 的英伟达 Omniverse 重大升级。

这些公告,无疑是将过去十年来 AI、虚拟世界、加速、模拟和协作等领域的所有重量级创新整合在了一起。

黄仁勋表示,“图形和人工智能密不可分。图形需要 AI,AI 也需要图形。”他同时解释道,AI 将在虚拟世界中学习技能,AI 也将帮助人类创建虚拟世界。

在五年前的 SIGGRAPH 大会上,英伟达通过将 AI 与实时光线追踪引入 GPU 重塑了整个图形世界。黄仁勋指出,“当我们用 AI 重新发明计算机图形学时,也相当于是在为 AI 重新发明 GPU。”

结果就是:系统变得越来越强大。以英伟达 HGX H100 为例,它包含 8 个 GPU 和共计 1 万亿个晶体管。与基于 CPU 的系统相比,其速度表现得以显著提升。

黄仁勋向观众们强调,“正因为如此,全球数据中心才迅速转向加速计算。这才是真正的「买得越多、越省钱」。”

2全球首发 HBM3e 内存,带宽达每秒 5TB

为了延续 AI 的强劲发展势头,英伟达打造了 Grace Hopper 超级芯片 GH200。它将 72 核 Grace CPU 与 Hopper GPU 结合起来,已经于今年 5 月全面投入生产。

黄仁勋还宣布,已经投入生产的英伟达 GH200 还将迎来一个附加版本,其中搭载顶尖 HBM3e 内存。

他随后又宣布将推出下一代 GH200 Grace Hopper 超级芯片平台。该平台能够接入多个 GPU,从而实现卓越的性能和易于扩展的服务器设计。

新平台专为处理世界上最复杂的生成式工作负载而构建,具体涵盖大语言模型、推荐系统和向量数据库等,而且将提供多种配置选项。

相比前一代平台产品,双配置方案的内存容量增加了 3.5 倍、带宽增加 3 倍,由此构建起一台搭载 144 个 Arm Neoverse 核心、8 千万亿次 AI 性能及 282 GB 最新 HBM3e 内存容量的服务器。

HBM3e 是一种高带宽内存,带宽达每秒 5TB。该内存比当前的 HBM3 快 50%,可提供总共每秒 10TB 的组合带宽,使新平台能运行比前代大 3.5 倍的模型,同时通过快三倍的内存带宽提高性能。

预计各领先系统制造商将在 2024 年第二季度,向市场交付基于该平台的新一代计算系统。

数据中心的硬件正在快速向加速计算转变,这是黄仁勋一直在强调的一个趋势。相比 CPU,GPU 在能效上有很大的优势,黄仁勋演讲中举的例子是同样 1 亿美元成本,相比 x86 架构 CPU,GH200 将能提供超过 20 倍能效提升。

3英伟达 AI Workbench:加速定制生成式 AI 的普及

为了加快全球企业以定制化方式采用生成式 AI,黄仁勋还宣布推出英伟达 AI Workbench。它将为开发人员提供统一且易于使用的工具包,可在 PC 或工作站平台上快速创建、测试和微调生成式 AI 模型,而后将其扩展至几乎任何数据中心、公有云或英伟达 DGX Cloud。

AI Workbench 消除了企业 AI 项目的入门复杂性。通过在本地系统上运行的精简界面开放访问,开发人员可以使用自定义数据微调 Hugging Face、GitHub 和 NGC 等流行 repo 中的模型,之后在各平台上轻松实现模型共享。

虽然目前市面上已经有数十万种预训练模型可供使用,但基于开源工具的定制化微调往往仍然艰难且耗费时间。

黄仁勋指出,“为了推动这种能力的大众化普及,我们必须让模型几乎能够随时随地运行。”

在 AI Workbench 的帮助下,开发人员只需点击几下即可自定义并运行生成式 AI。这款工具能够将所有必要的企业级模型、框架、软件开发套件和库,都整合到统一的开发者工作区当中。

黄仁勋总结称,“每个人都可以参与 AI 开发。”

领先的 AI 基础设施提供商——包括戴尔科技、HPE、惠普、Lambda、联想和超微等也在积极拥抱 AI Workbench,希望借助它的力量将企业生成式 AI 功能带到开发者需要的任何地方,包括本地设备。

黄仁勋还宣布英伟达与拥有 200 万用户的初创公司 Hugging Face 建立合作伙伴关系,将帮助数百万开发者轻松构建起大语言模型及其他先进 AI 应用,在超级算力的加持下拥抱生成式 AI。

开发人员还可访问 Hugging Face 平台中的英伟达 DGX Cloud AI 超级计算系统,利用它训练并微调各种高级 AI 模型。

“这将是一项全新服务,努力将世界上最大的 AI 社区与世界上最好的训练和基础设施对接起来。”

为了进一步加快生成式 AI 的应用,英伟达又发布了最新版本的企业软件套件英伟达 AI Enterprise 4.0。

英伟达 AI Enterprise 将为企业提供访问生成式 AI 所需要的工具,同时为大规模企业部署提供安全性和 API 稳定性支持。

4Omniverse 迎来大更新:融合生成式 AI 与 OpenUSD 以推动工业数字化

黄仁勋还公布了英伟达 Omniverse 的大版本更新。这是一套 OpenUSD 原生开发平台,可用于跨工具构建、模拟与协作,为开发人员和产业公司提供新的基础应用程序及服务。OpenUSD 框架与生成式 AI 技术将帮助用户优化并增强其 3D 流程与虚拟环境。

他还提到了英伟达对 OpenUSD 的贡献,推动这套用于描述、模拟和跨 3D 工具协作的框架向前发展。

Omniverse 平台此番更新,涵盖 Omniverse Kit(用于开发原生 OpenUSD 应用程序和扩展的引擎)、英伟达 Omniverse Audio2Face 基础应用以及空间计算功能方面的改进。Cesium、Convai、Move AI、SideFX Houdini 和 Wonder Dynamics 等客户现已通过 OpenUSB 接入到 Omniverse。

为了扩大在 Adobe Substance 3D、生成式 AI 和 OpenUSB 发展规划中的合作,Adobe 和英伟达宣布将 Adobe Firefly(Adobe 打造的创意生成式 AI 模型家族)以 API 的形式在 Omniverse 中开放。

Omniverse 用户现在可以与其他 OpenUSD 空间计算平台(例如 ARKit 和 RealityKit)相兼容的内容、体验及应用程序。

黄仁勋宣布为开发人员和企业提供广泛的框架、资源和服务,借此加速通用场景描述(即 OpenUSD)的普及度,为地理空间数据模型、指标组合与仿真就绪(简称 SimReady)和 OpenUSD 规范等作出贡献。

黄仁勋还公布了英伟达构建的四种新 Omniverse Cloud API,可供开发人员更加无缝地实施并部署 OpenUSD 管线与应用程序。

from text and answering USD knowledge questions.

ChatUSD——ChatUSD 是一个大语言模型(LLM)智能体,可帮助开发人员和艺术家处理 OpenUSD 数据及场景,根据文本提示生成 Python-USD 代码脚本并回答关于 USD 的问题。

RunUSD——一个云 API,通过检查上传文件与 OpenUSD 版本间的兼容性,并配合使用 Omniverse Cloud 生成渲染,从而将 OpenUSD 文件转换为全路径跟踪的渲染图像。

DeepSearch——一个 LLM 智能体,可以在未标记资产的海量数据库内进行快速语义搜索。

USD-GDN Publisher——一项一键式服务,可帮助企业和软件开发商从 USD Composer 等基于 Omniverse 的应用程序处,向 Omniverse Cloud 图形交付网络(GDN)发布高保真、基于 OpenUSD 的体验,并将结果实时传输至网络浏览器及移动设备。

这些贡献,也标志着英伟达上周宣布与皮克斯、Adobe、苹果和 Autodesk 共同创立的 OpenUSD 联盟正迎来技术演变新成果。

5强大的新型桌面系统与服务器

黄仁勋表示,英伟及全球各工作站设备制造商正着手推出功能更强大的新型 RTX 工作站,以便为各类需求提供更丰富的算力,用以支持生成式 AI 和数字化时代下的更多开发与内容创作需求。

这些系统(包括来自 BOXX、戴尔科技、惠普和联想的系统)基于英伟达 RTX 6000 Ada Generation GPU,并采用英伟达 AI Enterprise 和英伟达 Omniverse Enterprise 等软件。

另外,英伟达还发布了三款全新的桌面工作站 Ada Generation GPU,分别为英伟达 RTX 5000、RTX 4500 和 RTX 4000,旨在为全球专业人士提供最新的 AI、图形与实时渲染技术。

黄仁勋详细介绍了英伟达如何与全球数据中心系统制造商合作,继续通过搭载有全新英伟达 L40S GPU(一种强大的通用数据中心处理器设计)的英伟达 OVX 来增强生成式 AI 与工业数字化实践。

强大的新系统将通过英伟达 Omniverse 平台为最密集、最复杂的应用程序提供加速计算,具体包括 AI 训练与推理、3D 设计和可视化、视频处理及工业数字化等。

6英伟达研究院带来更多新功能

在英伟达研究院的不懈努力下,更多创新成果也即将揭开面纱。

在本次大秀的现场体验环节中,英伟达研究人员将展示生成式 AI 的工作流程,帮助艺术家们快速创建和迭代 3D 场景材质,使用文本或图像提示词快速生成自定义纹理材质,并进行更精细的创意控制。

英伟达研究院还演示了 AI 如何通过新的 3D 功能,将视频会议体验提升到新的水平。该研究院最近发表一篇论文,探讨了 AI 如何通过最少的捕捉设备为 3D 视频会议系统提供支持。

Maxine 的量产版本现已在英伟达 Enterprise 中开放,允许专业人士、团队、创作者等用户利用 AI 的力量获取高质量音 / 视频效果,甚至借助标准麦克风和网络摄像头即可实现。





审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 晶体管
    +关注

    关注

    76

    文章

    9054

    浏览量

    135206
  • 虚拟机
    +关注

    关注

    1

    文章

    855

    浏览量

    27375
  • 英伟达
    +关注

    关注

    22

    文章

    3327

    浏览量

    87768
  • GPU芯片
    +关注

    关注

    1

    文章

    289

    浏览量

    5688
  • AI芯片
    +关注

    关注

    17

    文章

    1652

    浏览量

    34380

原文标题:英伟达全球首发超级AI芯片:比上一代快50%,训练大模型成本更低

文章出处:【微信号:AI前线,微信公众号:AI前线】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    英伟达收到国内大厂50亿美元大单,推出GH200超级芯片,性能远超A100

    加大向英伟达下芯片订单。   与此同时,英伟达还在近期推出了一款升级版的下一代Grace Hopper超级芯片平台,性能超过过去的A100,
    的头像 发表于 08-11 00:08 3067次阅读

    英伟将用AI设计AI芯片

    AI芯片行业资讯
    深圳市浮思特科技有限公司
    发布于 :2024年02月19日 17:54:43

    英伟达市值跃居全球第四 文生视频大模型Sora带动

    英伟达市值跃居全球第四 文生视频大模型Sora带动 文生视频大模型Sora引发市场关注;OpenAI的首款文生视频大模型Sora横空出世带动
    的头像 发表于 02-19 16:48 657次阅读

    英伟达DRIVE Thor超级芯片首搭极氪新车

    英伟达和极氪汽车宣布了一项令人振奋的合作,新款极氪电动汽车将全球首发搭载英伟达DRIVE Thor超级
    的头像 发表于 01-25 17:25 705次阅读

    硅光计算芯片AI芯片国产化的关键突破口

    模型训练和推理的硬件以通用图形处理单元(GPU)为主,2022年全球GPU市场规模达到448.3亿美元,美国AI芯片巨头
    发表于 01-19 14:12 455次阅读
    硅光计算<b class='flag-5'>芯片</b>:<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>国产化的关键突破口

    AI模型这股东风,RISC-V该如何乘?

    电子发烧友网报道(文/吴子鹏)说起AI模型训练和推理,很多人的第一想法肯定是英伟芯片,那么背后也就是ARM架构。统计数据显示,在
    的头像 发表于 12-04 06:53 1186次阅读

    多GPU训练大型模型:资源分配与优化技巧|英伟达将推出面向中国的改良芯片HGX H20、L20 PCIe、L2 PCIe

    。为了解决这个问题,英伟达将针对中国市场推出新的AI芯片,以应对美国出口限制。本文将探讨如何在多个GPU上训练大型模型,并分析
    的头像 发表于 11-16 11:39 1040次阅读
    多GPU<b class='flag-5'>训练</b>大型<b class='flag-5'>模型</b>:资源分配与优化技巧|<b class='flag-5'>英伟</b>达将推出面向中国的改良<b class='flag-5'>芯片</b>HGX H20、L20 PCIe、L2 PCIe

    英伟达特供版芯片性能降80%!

    报道中提到,英伟达的这三款AI芯片并非“改良版”,而是“缩水版”,其分别是HGX H20、L20 PCle和L2 PCle。用于AI模型
    的头像 发表于 11-14 17:09 614次阅读

    英伟达确认为中国推三款改良AI芯片 性能暴降80%

    据报道,nvidia的3种ai芯片不是“改良版”,而是“缩水版”,分别是hgx h20、l20 pcle和l2 pcle。用于ai模型训练
    的头像 发表于 11-13 10:46 451次阅读

    英国加入全球AI芯片大战

    GPU最初是为视频游戏设计的产品,现已成为英伟达成功的核心。ChatGPT等AI模型的动力就是由英伟芯片提供的。目前
    的头像 发表于 08-26 14:50 805次阅读

    英伟达A100是什么系列?

    英伟达A100是什么系列? 全球都在关注生成式人工智能;特别是OpenAI发布ChatGPT以来,生成式人工智能技术一下就被拔高。在大模型训练中,A100是非常强大的GPU。
    的头像 发表于 08-08 15:13 2230次阅读

    训练好的ai模型导入cubemx不成功怎么解决?

    训练好的ai模型导入cubemx不成功咋办,试了好几个模型压缩了也不行,ram占用过大,有无解决方案?
    发表于 08-04 09:16

    英伟达 H100 vs 苹果M2 大模型训练,哪款性价比更高?

    训练和微调大型语言模型对于硬件资源的要求非常高。目前,主流的大模型训练硬件通常采用英特尔的CPU和英伟达的GPU。然而,最近苹果的M2 Ul
    的头像 发表于 07-28 16:11 2251次阅读
    <b class='flag-5'>英伟</b>达 H100 vs 苹果M2 大<b class='flag-5'>模型</b><b class='flag-5'>训练</b>,哪款性价比更高?

    联发科回应结盟英伟合攻 Arm 架构芯片传闻

    联发科计划周一下午举行 2023“旗舰科技 智领未来”记者会,由联发科 CEO 蔡力行与重量级嘉宾一同出席,这位嘉宾应该是近来引起全球关注、并成为 AI 创新推动者的英伟 CEO 黄
    发表于 05-28 08:47

    什么是预训练AI模型

    训练 AI 模型是为了完成特定任务而在大型数据集上训练的深度学习模型。这些模型既可以直接使用,
    的头像 发表于 05-25 17:10 634次阅读