0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA为全球企业开发和部署大型语言模型打开一扇新的大门

NVIDIA英伟达 来源:NVIDIA英伟达 作者:NVIDIA英伟达 2021-11-12 14:30 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

NVIDIA NeMo Megatron 框架; 可定制的大规模语言模型Megatron 530B;多GPU、多节点 Triton推理服务器助力基于语言的AI开发和部署,推动行业和科学发展

NVIDIA为全球企业开发和部署大型语言模型打开了一扇新的大门——使这些企业能够建立他们自己的、特定领域的聊天机器人、个人助理和其他AI应用程序,并能够以前所未有的水平理解语言中的微妙和细微差别。

NVIDIA推出了为训练具有数万亿参数的语言模型而优化的NVIDIA NeMo Megatron框架、为新领域和语言进行训练的可定制大型语言模型(LLM)Megatron 530B以及具有多GPU、多节点分布式推理功能的NVIDIA Triton推理服务器。

这些工具与NVIDIA DGX系统相结合,提供了一个可部署到实际生产环境的企业级解决方案,以简化大型语言模型的开发和部署。

“大型语言模型已被证明是灵活且功能强大的,无需专门的培训或监督,即可回答深层次领域问题,翻译语言,理解和总结文件,编写故事和计算程序。” NVIDIA应用深度学习研究副总裁Bryan Catanzaro表示。“ 为新的语言和领域建立大型语言模型可能仍然是最大的超级计算的应用,现在这些功能对全球的企业也变得触手可及。”

NVIDIA NeMo Megatron和Megatron 530B

加速大型语言模型开发

NVIDIA NeMo Megatron是在Megatron的基础上发展起来的开源项目,由NVIDIA研究人员主导,研究大型转换语言模型的高效训练。Megatron 530B是世界上最大的可定制语言模型。

NeMo Megatron框架使企业能够克服训练复杂自然语言处理模型的挑战。经过优化,可以在NVIDIA DGX SuperPOD的大规模加速计算基础设施上进行扩展。

NeMo Megatron通过数据处理库自动处理LLM训练的复杂性,这些数据处理库可以摄入、策划、组织和清理数据。利用先进的数据、张量和管道并行化技术,它能使大型语言模型的训练有效地分布在成千上万的GPU上。企业可以通过NeMo Megatron框架进一步训练它以服务新的领域和语言。

NVIDIA Triton推理服务器

助力实时大型语言模型推理

此外,今日发布的最新NVIDIA Triton推理服务器中的多GPU、多节点特性,使大型语言模型推理工作负载能够实时在多个GPU和节点上扩展。这些模型需要的内存比单个GPU甚至是包含多个GPU的大型服务器所能提供的还要多,并且,实际应用对其推理实时性有着极高的要求。

通过Triton推理服务器,Megatron530B能够在两个NVIDIA DGX系统上运行,将处理时间从CPU服务器上的1分钟以上缩短到半秒,令实时应用部署大型语言模型成为可能。

全球范围开发的大规模定制语言模型

使用NVIDIA DGX SuperPOD构建大型复杂语言模型的早期客户包括SiDi、京东探索研究院和VinBrai。 SiDi是巴西的一家大型AI 研究和开发机构,已经采用三星虚拟助手,供全国 2 亿巴西葡萄牙语者使用。 SiDi 首席执行官John Yi 表示:“SiDi 团队在AI 虚拟助理和聊天机器人开发方面拥有丰富的经验,此类开发既需要强大的 AI 性能,也需要经过训练并适应人类语言不断变化的细微差别的专用软件。NVIDIA DGX SuperPOD 非常适合推动我们团队的先进工作,帮助我们为巴西的葡萄牙语者提供领先的AI 服务。” 京东探索研究院,是以供应链为基础的领先技术和服务提供商京东的研发部门,他们利用 NVIDIA DGX SuperPOD 开发NLP,应用于智能客户服务、智能零售、智能物流、物联网、医疗健康等领域。 VinBrain,越南的医疗健康 AI 公司,他们使用 DGX SuperPOD 为100 家医院的放射科医生和远程医疗医生开发和部署了一种临床语言模型。在这些医院,已有 600 多名医疗健康从业者使用该模型。

供应情况

企业可以利用今天同期发布的NVIDIA LaunchPad,免费体验开发和部署大型语言模型。行业组织可以申请加入抢先体验计划,了解用于训练大规模语言模型的 NVIDIA NeMo Megatron 加速框架。

NVIDIA Triton可从NVIDIA NGC目录中获得,该目录是GPU优化的AI软件中心,包括框架、工具包、预训练模型和Jupyter Notebooks,并可从Triton GitHub repository中获取开放源代码。

Triton也包含在NVIDIA AI Enterprise软件套件中,该套件由NVIDIA优化、认证和支持。企业可以使用该软件套件,在内部数据中心和私有云的主流加速服务器上运行语言模型推理。

NVIDIA DGX SuperPOD 和NVIDIA DGX 系统通过NVIDIA 的全球经销商提供,这些合作伙伴能够根据要求为符合条件的客户提供询价服务。

责任编辑:haq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5496

    浏览量

    109095
  • AI
    AI
    +关注

    关注

    89

    文章

    38107

    浏览量

    296652
  • 模型
    +关注

    关注

    1

    文章

    3649

    浏览量

    51713

原文标题:GTC21 | NVIDIA 借助超大规模 AI 语言模型为全球企业赋能

文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    利用NVIDIA Cosmos开放世界基础模型加速物理AI开发

    NVIDIA 最近发布了 NVIDIA Cosmos 开放世界基础模型(WFM)的更新,旨在加速物理 AI 模型的测试与验证数据生成。借助 NVID
    的头像 发表于 12-01 09:25 497次阅读

    NVIDIA ACE现已支持开源Qwen3-8B小语言模型

    助力打造实时、动态的 NPC 游戏角色,NVIDIA ACE 现已支持开源 Qwen3-8B 小语言模型(SLM),可实现 PC 游戏中的本地部署
    的头像 发表于 10-29 16:59 1016次阅读

    DeepSeek模型如何在云服务器上部署

    随着大型语言模型(LLM)的应用日益普及,许多开发者和企业希望将像DeepSeek这样的优秀模型
    的头像 发表于 10-13 16:52 569次阅读

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    近日,NVIDIA 开源其物理 AI 平台 NVIDIA Cosmos 中的关键模型——NVIDIA Cosmos Reason-1-7B。这款先进的多模态大
    的头像 发表于 07-09 10:17 561次阅读

    欧洲借助NVIDIA Nemotron优化主权大语言模型

    NVIDIA 正携手欧洲和中东的模型构建商与云提供商,共同优化主权大语言模型 (LLM),加速该地区各行业采用企业级 AI。
    的头像 发表于 06-12 15:42 926次阅读

    Cognizant将与NVIDIA合作部署神经人工智能平台,加速企业人工智能应用

    -Cognizant将与NVIDIA合作部署神经人工智能平台,加速企业人工智能应用 Cognizant将在关键增长领域提供解决方案,包括企业级AI智能体、定制化行业
    的头像 发表于 03-26 14:42 578次阅读
    Cognizant将与<b class='flag-5'>NVIDIA</b>合作<b class='flag-5'>部署</b>神经人工智能平台,加速<b class='flag-5'>企业</b>人工智能应用

    英伟达GTC2025亮点:NVIDIA认证计划扩展至企业存储领域,加速AI工厂部署

    ,现在已将企业存储纳入其中,旨在通过加速计算、网络、软件和存储,助力企业更高效地部署 AI 工厂。 在企业构建 AI 工厂的过程中,获取高质量数据对于确保 AI
    的头像 发表于 03-21 19:38 1714次阅读

    分享 |迅基于RK3588开发部署测试DeepSeek模型

    分享 |迅基于RK3588开发部署测试DeepSeek模型
    的头像 发表于 02-18 14:26 2075次阅读
    分享 |迅<b class='flag-5'>为</b>基于RK3588<b class='flag-5'>开发</b>板<b class='flag-5'>部署</b>测试DeepSeek<b class='flag-5'>模型</b>

    设备“罢工”损失百万?AI预测性维护来“救场”

    AI 预测性维护,作为这场变革的核心力量,正以其强大的功能和显著的优势,企业打开一扇通往高效、智能设备管理的大门。它就像
    的头像 发表于 02-17 09:37 828次阅读
    设备“罢工”损失百万?AI预测性维护来“救场”

    添越智创基于 RK3588 开发部署测试 DeepSeek 模型全攻略

    能精准理解自然语言,生成高质量文本,还免费向全球开发者开放,极大地推动了 AI 技术的普及与应用,无数开发
    发表于 02-14 17:42

    微软AI开发者挑战赛即将开启

    人工智能,正在重塑世界。2 月 5 日至 4 月 23 日,加入我们,共赴场聚焦 AI 技术的开发者挑战赛!在这里,创意、技术和无限可能将碰撞出耀眼火花。无论你是开发新秀还是经验丰富的技术专家,这场由微软 Azure 驱动的在
    的头像 发表于 02-12 16:18 669次阅读

    NVIDIA推出多个生成式AI模型和蓝图

    NVIDIA 宣布推出多个生成式 AI 模型和蓝图,将 NVIDIA Omniverse 体化进步扩展至物理 AI 应用,如机器人、自动
    的头像 发表于 01-08 10:48 1028次阅读

    企业AI模型部署攻略

    当下,越来越多的企业开始探索和实施AI模型,以提升业务效率和竞争力。然而,AI模型部署并非易事,需要企业在多个层面进行细致的规划和准备。下
    的头像 发表于 12-23 10:31 1300次阅读

    AI大语言模型开发步骤

    开发个高效、准确的大语言模型个复杂且多阶段的过程,涉及数据收集与预处理、模型架构设计、训练
    的头像 发表于 12-19 11:29 1221次阅读

    【「大模型启示录」阅读体验】如何在客服领域应用大模型

    训练模型如BERT、GPT等。这些模型在理解自然语言、生成文本、处理对话等方面具有不同的能力。因此,在选择模型时,需要了解每个模型的特点和优
    发表于 12-17 16:53