0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA GPU助力加速先进对话式AI技术

科技绿洲 来源:NVIDIA英伟达 作者:NVIDIA英伟达 2022-05-06 14:28 次阅读

对话式 AI 是一种综合运用多种技术的复杂的人工智能形式,能够使人机间实现类似于真人的交互。复杂系统能够识别语音和文本、理解意图、识别特定语言的习语和格言,并且能够以适当的自然语言做出回应。

什么是对话式 AI?

对话式 AI 是应用机器学习来开发基于语言的应用程序,使人们能够通过语音与设备、机器和计算机进行自然交互。

无论是虚拟助手在早上唤醒您,还是您询问通勤路线,或者您在网购时与聊天机器人进行交流,这些情况中您均在使用对话式 AI。您用正常的声音说话,而设备可以理解并找到适当答案,然后用听起来自然的声音回复您。

对话式 AI 的应用程序有多种形式。最简单的是 FAQ 机器人,它们经过训练,可以从具有预先格式化答案的定义数据库中回复查询(通常是以书面形式表达)。一种更复杂的对话式 AI 形式是虚拟个人助理,例如 Amazon 的 Alexa、Apple 的 Siri 和 Microsoft 的 Cortana。这些工具设备经过调节,可以回应简单的请求。

虚拟客户助理是一种更专业的个人助理版本,它能够理解上下文,从一个互动到下一个互动进行对话。另一种专门的对话式 AI 形式是虚拟员工助理,它可以了解员工与软件应用程序和工作流程之间的互动情况,并提出改进建议。虚拟员工助理广泛用于机器人流程自动化这一热门的新软件类别。

为何选择对话式 AI?

对话式 AI 是人类与智能机器和应用程序(从机器人和汽车到家庭助理和移动应用)互动的基本构建块。让计算机理解人类语言及所有细微差别,并做出适当的反应,这是 AI 研究人员长期以来的追求。但是,在采用加速计算的现代 AI 技术出现之前,构建具有真正自然语言处理 (NLP) 功能的系统是无法实现的。

在过去几年中,深度学习改进了对话式 AI 的技术水平,并且在某些任务上提供了超人的准确性。深度学习还降低了构建语言服务时,对语言学和基于规则的技术的深度知识的需求,从而在零售、医疗健康和金融等行业中得到了广泛采用。

现如今,人们对高级对话式 AI 工具的需求日益增加。预计到 2020 年,50% 的搜索结果将由语音执行,且到 2023 年,将有 80 亿个数字语音助手投入使用。

对话式 AI 的工作原理是什么?

回答问题的步骤如下:将用户语音转换为文本,理解文本含义,搜索符合上下文的适当应答,最后使用文本转语音工具提供应答。对话式 AI 流程通常由三个阶段组成:

自动语音识别 (ASR)

自然语言处理 (NLP) 或自然语言理解 (NLU)

带有语音合成的文本转语音 (TTS)

每一步都需要运行多个 AI 模型,因此每个单独网络的可用执行时间约为 10 毫秒或更短。

自动语音识别 (ASR) 会收录人类语音,然后将其转换为可读文本。深度学习在识别音素时具有更高的准确性,已经取代了传统的统计方法,如隐马尔可夫模型和高斯混合模型。

自然语言理解 (NLU) 会录入文本,理解上下文和意图,然后生成智能回复。深度学习模型能对众多上下文和语言准确进行泛化处理,因此应用于 NLU。Transformer 深度学习模型,如 BERT(Transformer 双向编码器表征模型),是时间递归神经网络的一个替代方案,它应用了一种注意力技术—通过将注意力集中在前后最相关的词上来解析一个句子。BERT 通过在问答 (QA)、实体识别、意图识别、情感分析等基准上提供与人类基准相媲美的准确性,彻底改变了 NLU 的进展。

对话式 AI 流程的最后一个阶段是将 NLU 阶段生成的文本响应改为自然发音的语音。声清晰度是通过使用深度神经网络实现的,生成类似人类的语调和清晰的单词发音。此步骤是通过两个网络完成的:一个根据文本生成频谱图的合成网络,一个从频谱图生成波形的声码器网络。

GPU:对话式 AI 的关键

对话式 AI 背后的技术十分复杂,涉及多步骤过程,需要大量的功耗计算,并要在 300 毫秒内完成大量计算,才能提供优质的用户体验。

一个由数百个核心组成的 GPU,可以并行处理数千个线程。这使得 GPU 成为训练深度学习模型和执行推理的首选平台,因为它们的性能比纯 CPU 平台高 10 倍。

借助 NVIDIA GPU 和 NVIDIA® CUDA-X AI™ 库,可快速训练和优化大量的先进语言模型,从而在几毫秒或几千分之一秒内运行推理。这是一项重大进步,可以结束快速 AI 模型与大型复杂 AI 模型之间的权衡。

此外,像 BERT 这样的基于 Transformer 深度学习模型不需要按顺序处理连续数据,与递归神经网络相比,可以在 GPU 上实现更多的并行化,并减少训练时间。

o4YBAGC24DOAHECBAAAARmu_22A208.png

NVIDIA GPU 助力加速先进的对话式 AI 技术:

自动语音识别 (ASR):Kaldi 是一种 C++ 工具包,支持传统方法以及用于 ASR 的热门深度学习模型。GPU 加速的 Kaldi 解决方案的执行速度比实时音频快 3500 倍,比只用 CPU 的方案快 10 倍。

自然语言理解 (NLU):在与复杂语言模型协作时,NVIDIA GPU 的并行处理能力和 Tensor Core 架构可实现更高的吞吐量和可扩展性,从而为 BERT 的训练和推理提供突破性的性能。利用 NVIDIA T4,GPU 加速的 BERT-base 进行推理的速度比单纯的 CPU 解决方案快 17 倍。BERT 使用无监督式学习方法的能力、使用预训练模型进行迁移学习的能力,以及使用 GPU 进行加速的能力,均使其在行业中得到广泛应用。为实现真正的对话式 AI,语言模型变得越来越大。未来的模型将比现在使用的大很多倍,因此 NVIDIA 构建并开源了迄今为止最大的基于 Transformer 的 AI:GPT-2 8B,这是一种内含 83 亿参数的语言处理模型,比 BERT 大 24 倍。

文字转语音 (TTS):热门文本转语音深度学习模型(GPU 加速的 Tacotron2 和 Waveglow)使用 NVIDIA T4 GPU 执行推理的速度比仅使用 CPU 的 解决方案快 9 倍。

对话式 AI 用例

GPU 优化的语言理解模型可集成到医疗健康、零售和金融服务等行业的 AI 应用程序中,为智能扬声器和客户服务领域中的高级数字语音助手提供支持。通过使用这些高质量的对话式 AI 工具,各个领域的企业在与客户交流时,均可实现前所未有的个性化服务标准。

医疗健康

医疗健康面临的困难之一是难以获得。打医生办公室电话并一直等待的情况十分常见,与索赔代表联系可能同样困难。通过实施自然语言处理 (NLP) 来训练聊天机器人是医疗健康行业的一项新兴技术,可以解决医疗专业人员的短缺问题,并开创与患者的沟通渠道。

NLP 的另一个重要的医疗健康应用程序是生物医学文本挖掘(或 BioNLP)。鉴于生物文献数量众多,以及生物医学出版速度不断提高,自然语言处理是一个关键的工具,可以在已发表的研究中提取信息,推动生物医学领域的知识进步,协助药物研发和疾病诊断。

金融服务

自然语言处理 (NLP) 是为金融服务公司构建更好的聊天机器人和 AI 助理的关键组成部分。在众多用于基于 NLP 的应用程序的语言模型中,BERT 已成为机器学习领域 NLP 的领军者及语言模型。借助 AI,NVIDIA 近期打破了 BERT 训练速度的记录,有助于释放未来几年内在线提供的数十亿预期对话式 AI 服务的潜力,使其达到人类水平的理解能力。例如,银行可以使用 NLP 来评估信用记录很少或没有信用记录的客户信誉。

零售

聊天机器人技术还常用于零售应用程序,能够准确分析客户查询,并生成回复或建议。这可简化客户流程,并提高商店运营效率。NLP 还用于文本挖掘客户反馈和情感分析。

对话式 AI 的优势

对此有许多答案。其中一点是人力成本很高。虽然成本差异很大,但根据 F.Curtis Barry 公司的数据,一个客服电话的全部成本介于 2.70 美元到 5.60 美元之间,其他公司估算的平均价格也要达到每分钟一美元左右。将人工操作员替换为机器人,这具有显著节约成本的优势。研究还表明,相较于销售或客户服务智能体,许多人更喜欢与电脑对话,这使得对话式 AI 成为客户自助服务的实现者。

在许多场景中,比如一个人正在开车或忙于其他事情,又或者在电梯中无法使用键盘时,对话式 AI 比键盘交互更加合适。

核心技术还可用于解释或完善模糊查询,或解释使用不同语言的人的查询。

Gartner 认为,85% 的客户与企业的关系无需人工交互即可处理,McKinsey 公司估计,全球约 60% 的职业中的有三分之一的活动可以使用这项技术。

NVIDIA GPU 加速的对话式 AI 工具

借助对话式 AI 部署服务似乎令人生畏,但 NVIDIA 拥有可以简化这一过程的工具,包括神经模组(简称 NeMo)和一项名为 NVIDIA Riva 的新技术。为节省时间,预训练模型、训练脚本和性能结果可在 NVIDIA GPU Cloud (NGC) 软件中心获得。

NVIDIA Riva 是一种 GPU 加速应用程序框架,允许公司使用视频和语音数据,为自己的行业、产品和客户定制最先进的对话式 AI 服务。

Riva 提供用于对话式 AI 的端到端深度学习流程。它包含先进的深度学习模型,例如用于自然语言理解的 NVIDIA Megatron BERT。企业可以利用 NVIDIA NeMo 进一步在数据上调优这些模型,利用 NVIDIA TensorRT™ 优化推理,并利用 NGC(NVIDIA 的 GPU 优化软件目录)上提供的 Helm 图表在云端和边缘进行部署。

使用 Riva 构建的应用程序可以利用新款 NVIDIA A100 Tensor Core GPU 中的创新技术进行 AI 计算,并利用 NVIDIA TensorRT 的新型优化技术进行推理。这使得使用功能强大的视觉和语音模型能够运行整个多模态应用程序,并且速度比实时交互的 300 毫秒阈值还要快。

NVIDIA GPU 加速的端到端数据科学

基于 CUDA 构建的 RAPIDS™ 开源软件库套件使您能够完全在 GPU 上执行端到端数据科学和分析流程,同时仍然使用 Pandas 和 Scikit-Learn API 等熟悉的界面。

NVIDIA GPU 加速的深度学习框架

GPU 加速深度学习框架为设计和训练自定义深度神经网络带来灵活性,并为 Python 和 C/C++ 等常用编程语言提供编程接口。MXNet、PyTorch、TensorFlow 等广泛使用的深度学习框架依赖于 NVIDIA GPU 加速库,能够提供高性能的多 GPU 加速训练。

对话式 AI 在 NVIDIA 平台的未来

推动基于 Transformer 语言网络(如 BERT 和 GPT-2 8B)的大规模性能的要求,即其纯粹的复杂性以及对庞大数据集的预训练。这种组合需要一个可靠的计算平台来处理所有必要的计算,以推动快速执行和准确性。这些模型可以在大量无标记数据集上工作,这使得它们成为现代 NLP 的创新中心,而且,对于即将在众多用例中采用对话式 AI 应用程序的新一波智能助手来说,这是一个强有力的选择。

带有 Tensor Core 体系架构的 NVIDIA 平台提供可编程性,以加速各种不同的现代 AI,包括基于 Transformer 的模型。此外,数据中心规模设计和 DGX SuperPOD™ 的最优化,与软件库和先进 AI 框架的直接支持相结合,为开发者提供了无缝的端到端平台,以承担艰巨的 NLP 任务。

NGC(NVIDIA 加速软件中心)免费提供持续优化,以便加速 BERT 和 Transformer 在多个框架上的 GPU 训练。

NVIDIA TensorRT 包括对 BERT 和基于 Transformer 的大型模型运行实时推理的优化。如需了解更多信息,请查看我们的“对话式 AI 实时 BERT 推理”博客。NVIDIA 的 BERT GitHub 仓库今天也有代码,可以重现本博客中引用的单节点训练性能,在不久的将来,该仓库将更新必要的脚本,以重现大规模训练性能的数字。

审核编辑:彭菁
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4592

    浏览量

    101706
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4417

    浏览量

    126672
  • AI
    AI
    +关注

    关注

    87

    文章

    26443

    浏览量

    264038
  • 软件库
    +关注

    关注

    0

    文章

    13

    浏览量

    7712
收藏 人收藏

    评论

    相关推荐

    利用NVIDIA组件提升GPU推理的吞吐

    本实践中,唯品会 AI 平台与 NVIDIA 团队合作,结合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)将推理的稠密网络和热
    的头像 发表于 04-20 09:39 154次阅读

    NVIDIA数字人技术加速部署生成式AI驱动的游戏角色

    NVIDIA 在 GDC 2024 大会上宣布,Inworld AI 等领先的 AI 应用程序开发者,正在使用 NVIDIA 数字人技术
    的头像 发表于 04-09 10:08 211次阅读
    <b class='flag-5'>NVIDIA</b>数字人<b class='flag-5'>技术</b><b class='flag-5'>加速</b>部署生成式<b class='flag-5'>AI</b>驱动的游戏角色

    NVIDIA Isaac机器人平台升级,加速AI机器人技术革新

    NVIDIA Isaac机器人平台近期实现重大升级,通过引入最新的生成式AI技术先进的仿真技术,显著
    的头像 发表于 03-27 10:36 194次阅读

    NVIDIA Isaac将生成式AI应用于制造业和物流业

    NVIDIA Isaac 机器人平台利用最新的生成式 AI先进的仿真技术加速 AI 机器人
    的头像 发表于 03-22 10:06 175次阅读
    <b class='flag-5'>NVIDIA</b> Isaac将生成式<b class='flag-5'>AI</b>应用于制造业和物流业

    NVIDIA 初创加速计划 Omniverse 加速

    新的 AI 技术和迅速发展的应用正在改变各行各业,生成式 AI 已经展示出在艺术、设计、影视动画、互娱、建筑等领域加速内容创作的价值,助力
    的头像 发表于 12-04 20:35 398次阅读
    <b class='flag-5'>NVIDIA</b> 初创<b class='flag-5'>加速</b>计划 Omniverse <b class='flag-5'>加速</b>营

    177倍加速NVIDIA最新开源 | GPU加速各种SDF建图!

    但最近,NVIDIA和ETHZ就联合提出了nvblox,是一个使用GPU加速SDF建图的库。计算速度非常快,相较CPU计算TSDF甚至快了177倍。更重要的是,因为所有数据都已经存储在GPU
    的头像 发表于 11-09 16:46 553次阅读
    177倍<b class='flag-5'>加速</b>!<b class='flag-5'>NVIDIA</b>最新开源 | <b class='flag-5'>GPU</b><b class='flag-5'>加速</b>各种SDF建图!

    NVIDIA Isaac 平台先进的仿真和感知工具助力 AI 机器人技术加速发展

      NVIDIA Isaac ROS 2.0  和  NVIDIA Isaac Sim 2023.1  以及感知和仿真升级进行了发布,用以简化 ROS 开发者对高性能 AI 机器人应用的构建与测试。 开源机器人
    的头像 发表于 10-20 02:00 445次阅读
    <b class='flag-5'>NVIDIA</b> Isaac 平台<b class='flag-5'>先进</b>的仿真和感知工具<b class='flag-5'>助力</b> <b class='flag-5'>AI</b> 机器人<b class='flag-5'>技术</b><b class='flag-5'>加速</b>发展

    Oracle 云基础设施提供新的 NVIDIA GPU 加速计算实例

    生成式 AI 和大语言模型(LLM)不断推动突破性创新,训练和推理对算力的需求也随之急剧上升。 这些现代生成式 AI 应用需要全栈加速计算,首先要有能够快速、准确处理大量工作负载的先进
    的头像 发表于 09-25 20:40 283次阅读
    Oracle 云基础设施提供新的 <b class='flag-5'>NVIDIA</b> <b class='flag-5'>GPU</b> <b class='flag-5'>加速</b>计算实例

    NVIDIA AI Enterprise 4.0 推出,助力企业构建生产就绪的生成式 AI 为业务赋能

    时。NVIDIA 正在将专业知识投入到解决方案的开发过程中,助力企业实现这样的飞跃。 推出 NVIDIA AI Enterprise 4.0 最新版 
    的头像 发表于 09-19 20:20 389次阅读
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Enterprise 4.0 推出,<b class='flag-5'>助力</b>企业构建生产就绪的生成式 <b class='flag-5'>AI</b> 为业务赋能

    NVIDIA RTX平台及Turing GPU架构荣获美国先进影像协会技术

    NVIDIA RTX平台及Turing GPU架构荣获美国先进影像协会卢米埃尔技术
    的头像 发表于 08-01 14:58 387次阅读

    NVIDIA 人工智能开讲 | 对话AI 开发利器 — NVIDIA NeMo

    ”两大音频 APP上搜索“ NVIDIA 人工智能开讲 ”专辑,众多技术大咖带你深度剖析核心技术,把脉未来科技发展方向! NVIDIA NeMo 是一个用于构建
    的头像 发表于 07-10 20:25 356次阅读
    <b class='flag-5'>NVIDIA</b> 人工智能开讲 | <b class='flag-5'>对话</b>式 <b class='flag-5'>AI</b> 开发利器 — <b class='flag-5'>NVIDIA</b> NeMo

    Snowflake 携手 NVIDIA 助力企业在数据云端利用数据实现生成式 AI

    AI 应用,而这一切都可以在 Snowflake 数据云中安全地实现。 凭借用于开发大语言模型(LLM)的 NVIDIA NeMo 平台 以及 NVIDIA GPU
    的头像 发表于 06-27 21:10 268次阅读
    Snowflake 携手 <b class='flag-5'>NVIDIA</b> <b class='flag-5'>助力</b>企业在数据云端利用数据实现生成式 <b class='flag-5'>AI</b>

    NVIDIA 邀您参加 —— AI 软硬件协同开发技术交流与人才发展分享会

    大模型时代,NVIDIA 渴望携志同者一起前进,与道合者一起奔跑,共同创造更多可能!NVIDIA GPU 计算专家团队(DevTech)与 GPU 计算架构团队招贤纳士! 
    的头像 发表于 06-26 19:35 261次阅读
    <b class='flag-5'>NVIDIA</b> 邀您参加 —— <b class='flag-5'>AI</b> 软硬件协同开发<b class='flag-5'>技术</b>交流与人才发展分享会

    NVIDIA 专家做客“技术圆桌派”,详解 AI 赋能量化金融

    大数据,加速模型的训练和推理优化等在量化投研场景中非常重要。 NVIDIA GPU 加速的解决方案能够助力量化金融
    的头像 发表于 05-24 06:05 580次阅读
    <b class='flag-5'>NVIDIA</b> 专家做客“<b class='flag-5'>技术</b>圆桌派”,详解 <b class='flag-5'>AI</b> 赋能量化金融

    NVIDIA NeMo 如何支持对话AI 任务的训练与推理?

    编辑推荐 大模型驱动的对话AI 正在引发新一轮的商业增量。对话式机器人正在不同领域发挥着越来越大的作用,帮助企业用户解决客户服务等难题,提高客户的体验。然而,尽管技术已经趋近成熟,
    的头像 发表于 05-11 20:16 626次阅读
    <b class='flag-5'>NVIDIA</b> NeMo 如何支持<b class='flag-5'>对话</b>式 <b class='flag-5'>AI</b> 任务的训练与推理?