0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA发布Riva语音AI和大型LLM软件

星星科技指导员 来源:NVIDIA 作者:Siddharth Sharma 2022-04-01 16:27 次阅读

NVIDIA 发布了 NVIDIA Riva 在语音人工智能方面的新突破, NVIDIA NeMo 在大规模语言建模( LLM )方面的新突破。 Riva 是一款 GPU 加速语音人工智能 SDK ,用于企业为其品牌和虚拟助手生成富有表现力的类人语音。 NeMo 是语音和 NLU 的加速培训框架,它现在有能力开发具有数万亿参数的大规模语言模型。

语音和语言人工智能的这些进步使企业和研究机构能够轻松构建针对其行业和领域定制的最先进的对话人工智能功能。

英伟达 Riva

NVIDIA 发布了一个具有定制语音功能的新版本,企业只需 30 分钟的语音数据即可轻松创建独特的语音来代表其品牌。

此外, NVIDIA 宣布了Riva Enterprise,这是一项付费计划,包括为需要大规模 Riva 部署的企业提供 NVIDIA 专家支持。 Riva 仍然免费提供给工作量较小的客户和合作伙伴。

亮点包括:

在 A100 上用一天 30 分钟的音频数据创建一个新的神经语音。

细粒度控件以生成富有表现力的声音。

A100 上的 Fastpitch + HiFiGAN 比 V100 上的 Tacotron2 + WaveGlow 性能高 12 倍。

支持五种其他语言的世界级语音识别

扩展到成百上千的实时流。

在任何云端、本地和边缘运行。

注册以接收有关 Riva Enterprise 的最新消息和更新,以进行大规模部署 》》

使用 Riva 开发应用程序

阅读此introductory post to了解 Riva 工作流中的组件。

接下来,按照本教程构建您自己的端到端语音识别服务:

Parthart: 1-EC6

Parthart: H2-Em7

Parthut: 3-ECEN-18

有关构建virtual assistants和transcription with entity recognition等语音应用程序的更多教程,请访问Riva Getting Started. 》》

NVIDIA NeMo Megatron 、 Triton 多 – GPU 多节点推理和 Megatron 530B

NVIDIA 还推出了为企业构建、定制和部署大型语言模型的功能。 NeMo Megatron 是 NeMo 框架中的一项新功能,用于培训多达数万亿个参数的大型语言模型( LLM )。

它包括Megatron方面的进步,这是一个由 NVIDIA 研究人员领导的开源项目,旨在开发有效培训法学硕士的技术。企业可以使用 NeMo Megatron 定制 LLM ,如 Megatron 530B ,并使用 NVIDIA Triton 推理服务器跨多个 GPU 和节点进行部署。

亮点包括:

在包含数十亿页文本的庞大数据集上自动化数据整理。

为新的域和语言培训Megatron 530B等模型。

从单节点扩展到超级计算机,包括数十个DGX A100系统。

导出到多个节点和 GPU s ,用于使用 NVIDIA Triton 推理服务器进行实时推理。

关于作者

Siddharth Sharma 是NVIDIA 加速计算的高级技术营销经理。在加入NVIDIA 之前, Siddharth 是 Mathworks Simulink 和 Stateflow 的产品营销经理,与汽车和航空航天公司密切合作,采用基于模型的设计来创建控制软件。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4542

    浏览量

    101481
  • 服务器
    +关注

    关注

    12

    文章

    8017

    浏览量

    82214
  • 人工智能
    +关注

    关注

    1773

    文章

    43373

    浏览量

    230136
  • LLM
    LLM
    +关注

    关注

    0

    文章

    190

    浏览量

    230
收藏 人收藏

    评论

    相关推荐

    基于NVIDIA Megatron Core的MOE LLM实现和训练优化

    本文将分享阿里云人工智能平台 PAI 团队与 NVIDIA Megatron-Core 团队在 MoE (Mixture of Experts) 大语言模型(LLM)实现与训练优化上的创新工作。
    的头像 发表于 03-22 09:50 94次阅读
    基于<b class='flag-5'>NVIDIA</b> Megatron Core的MOE <b class='flag-5'>LLM</b>实现和训练优化

    NVIDIA 为部分大型亚马逊 Titan 基础模型提供训练支持

    GPU 和海量的数据集上所训练而成。 不过这可能会给想要使用生成式 AI 的企业带来很多巨大的挑战。 NVIDIA NeMo (一个用于构建、自定义和运行 LLM 的框架)能够帮助企业克服上述挑战
    的头像 发表于 11-29 21:15 306次阅读
    <b class='flag-5'>NVIDIA</b> 为部分<b class='flag-5'>大型</b>亚马逊 Titan 基础模型提供训练支持

    NVIDIA AI Foundation Models:使用生产就绪型 LLM 构建自定义企业聊天机器人和智能副驾

    大语言模型(LLM)正在彻底变革数据科学,带来自然语言理解、AI 和机器学习的高级功能。为洞悉特定领域而定制的自定义 LLM 在企业应用中越来越受到青睐。 NVIDIA Nemotro
    的头像 发表于 11-17 21:35 483次阅读
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Foundation Models:使用生产就绪型 <b class='flag-5'>LLM</b> 构建自定义企业聊天机器人和智能副驾

    NVIDIA 在 Microsoft Azure 上推出面向全球企业和初创公司的生成式 AI Foundry 服务

    SAP、Amdocs、Getty Images 率先使用 NVIDIA AI Foundation Models  构建自定义 LLM、在 NVIDIA DGX 云上进行训练, 并使用
    的头像 发表于 11-16 21:15 277次阅读

    NVIDIA 在 Microsoft Azure 上推出面向全球企业和初创公司的 生成式 AI Foundry 服务

    SAP、Amdocs、Getty Images 率先使用 NVIDIA AI Foundation Models 构建自定义 LLM、在 NVIDIA DGX 云上进行训练, 并使用
    发表于 11-16 14:13 121次阅读
    <b class='flag-5'>NVIDIA</b> 在 Microsoft Azure 上推出面向全球企业和初创公司的 生成式 <b class='flag-5'>AI</b> Foundry 服务

    利用 NVIDIA Jetson 实现生成式 AI

    近日,NVIDIA 发布了 Jetson 生成式 AI 实验室(Jetson Generative AI Lab),使开发者能够通过 NVIDIA
    的头像 发表于 11-07 21:25 415次阅读
    利用 <b class='flag-5'>NVIDIA</b> Jetson 实现生成式 <b class='flag-5'>AI</b>

    现已公开发布!欢迎使用 NVIDIA TensorRT-LLM 优化大语言模型推理

    NVIDIA 于 2023 年 10 月 19 日公开发布 TensorRT-LLM ,可在 NVIDIA GPU 上加速和优化最新的大语言模型(Large Language Mode
    的头像 发表于 10-27 20:05 487次阅读
    现已公开<b class='flag-5'>发布</b>!欢迎使用 <b class='flag-5'>NVIDIA</b> TensorRT-<b class='flag-5'>LLM</b> 优化大语言模型推理

    周四研讨会预告 | 注册报名 NVIDIA AI Inference Day - 大模型推理线上研讨会

    由 CSDN 举办的 NVIDIA AI Inference Day - 大模型推理线上研讨会,将帮助您了解 NVIDIA 开源大型语言模型(LLM
    的头像 发表于 10-26 09:05 179次阅读

    Nvidia 通过开源库提升 LLM 推理性能

    加利福尼亚州圣克拉拉——Nvidia通过一个名为TensorRT LLM的新开源软件库,将其H100、A100和L4 GPU的大型语言模型(LLM
    的头像 发表于 10-23 16:10 289次阅读

    SIGGRAPH 2023 | NVIDIA 与全球工作站厂商共同推出用于生成式 AILLM 开发、内容创作和数据科学的系统

    NVIDIA RTX 6000 Ada GPU、NVIDIA Omniverse 和 NVIDIA AI Enterprise 软件将大幅提
    的头像 发表于 08-09 19:10 272次阅读

    NVIDIA与全球工作站厂商共同推出用于生成式AILLM开发、内容创作和数据科学的强大系统

    、惠普、联想等公司所提供的系统配备NVIDIA RTX 6000 Ada GPU、NVIDIA AI Enterprise和NVIDIA Omniverse™ Enterprise
    发表于 08-09 11:48 174次阅读
    <b class='flag-5'>NVIDIA</b>与全球工作站厂商共同推出用于生成式<b class='flag-5'>AI</b>及<b class='flag-5'>LLM</b>开发、内容创作和数据科学的强大系统

    NVIDIA 邀您参加 —— AI 软硬件协同开发技术交流与人才发展分享会

    软硬件协同开发以及 人才招聘分享会诚邀你参加! 我们将邀请多位 NVIDIA 深度学习领域专家与你分享 NVIDIA 的技术策略以及招聘信息。 AI workload 驱动的 AI
    的头像 发表于 06-26 19:35 243次阅读
    <b class='flag-5'>NVIDIA</b> 邀您参加 —— <b class='flag-5'>AI</b> 软硬件协同开发技术交流与人才发展分享会

    基于Transformer的大型语言模型(LLM)的内部机制

    本文旨在更好地理解基于 Transformer 的大型语言模型(LLM)的内部机制,以提高它们的可靠性和可解释性。 随着大型语言模型(LLM)在使用和部署方面的不断增加,打开黑箱并了解
    的头像 发表于 06-25 15:08 1005次阅读
    基于Transformer的<b class='flag-5'>大型</b>语言模型(<b class='flag-5'>LLM</b>)的内部机制

    NVIDIA 与微软合作加速企业就绪的生成式 AI

    NVIDIA AI Enterprise 与 Azure 机器学习集成,提供端到端云平台,供开发者构建、部署和管理大型语言模型的 AI 应用 微软 Build 大会——太平洋时间 20
    的头像 发表于 05-25 09:15 354次阅读
    <b class='flag-5'>NVIDIA</b> 与微软合作加速企业就绪的生成式 <b class='flag-5'>AI</b>

    使用自然语言语音指令创建 XR 体验:Project Mellon 应用测试

    Project Mellon 是一个轻量级的 Python 软件包,能够利用强大的语音 AINVIDIA Riva)和
    的头像 发表于 04-08 00:30 304次阅读