0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA Triton推理服务器帮助Teams使用认知服务优化语音识别模型

NVIDIA英伟达 来源:NVIDIA英伟达 作者:NVIDIA英伟达 2022-01-04 17:45 次阅读

Microsoft Teams借助AI生成的实时字幕和转录功能,帮助全球学生和职场人士顺利进行在线会议。用于训练的NVIDIA AI计算技术和用于推理语音识别模型的NVIDIA Triton推理服务器进一步提升了这两个功能。

Microsoft Teams 是全球沟通和协作的重要工具,每月有近2.5亿活跃用户。Microsoft Azure 认知服务为Teams提供28种语言的字幕和转录,并将很快能够在NVIDIA GPU上运行关键的计算密集型神经网络推理。

实时字幕功能帮助与会者实时跟踪对话,转录功能方便与会者在日后回顾当时的创意或回看未能参与的会议。

实时字幕对聋哑人、听力障碍者,或者异国与会者特别有用。

NVIDIA Triton开源推理服务软件能够帮助Teams使用认知服务优化语音识别模型。

使用Triton,认知服务能够支持高度先进的语言模型,以极低的延迟实时提供高度准确、个性化的语音转文本结果。同时,可以保证运行这些语音转文本模型的NVIDIA GPU充分发挥其潜力,在消耗更少计算资源的同时,为客户提供更高的吞吐量,进而降低成本。

底层语音识别技术作为认知服务中的一个API,开发人员可以使用它定制和运行自己的应用程序——客服电话转录、智能家居控制或为急救人员提供AI助手。

字字达意的AI

认知服务会生成Teams的转录和字幕,将语音转换为文本,并识别说话人。同时也能够识别专业术语 、姓名和其他会议背景,提高字幕的准确性。

Microsoft Teams的通话、会议及设备首席项目经理Shalendra Chhabra表示:“这样的AI模型非常复杂,需要数千万个神经网络参数才能识别几十种不同的语言。但模型越大,就越难以经济高效地实时运行。”

NVIDIA GPU和Triton软件能够帮助微软在不牺牲低延迟的情况下,通过强大的神经网络,实现高准确性,确保语音-文本的实时转换。

当启用转录功能时,与会者可以在会议结束后轻松补上错过的内容。

Triton三大功能推动效率提升

NVIDIA Triton有助于简化AI模型部署,并解锁高性能推理。用户甚至可以为自己的应用开发自定义后端。软件的一些关键功能可将Microsoft Teams的字幕和转录功能扩展到更多会议和用户,包括:

流推理:新型流推理功能——通过跟踪语音上下语境,提高延迟、敏感性字幕的准确度,它助力NVIDIA和Azure认知服务合作定制语音转文本的应用程序。

动态合批:批大小指神经网络同时处理的输入样本数量。通过Triton的动态合批,单项推理请求被自动组合成一个批次,因此能够在不影响模型延迟的情况下更好地利用GPU资源。

并发模型执行:实时字幕和转录需要同时运行多个深度学习模型。Triton使开发人员能够在单个GPU上同时完成这些工作,包括使用不同深度学习框架的模型。

即刻启程,借助Azure 认知服务,在您的应用中使用语音转文本的功能,并进一步了解NVIDIA Triton 推理服务软件如何帮助团队大规模部署AI模型。

NVIDIA 将参加 CES 2022, 并将在 1 月 5 日凌晨 0 点(北京时间)发表 NVIDIA 特别演讲。

NVIDIA GeForce 高级副总裁 Jeff Fisher 和 NVIDIA 汽车部门副总裁兼总经理 Ali Kani 将展示加速计算在设计、仿真、游戏和自动驾驶汽车方面的新突破。

原文标题:Microsoft Azure 认知服务和NVIDIA AI提升Microsoft Teams实时字幕和转录功能

文章出处:【微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

审核编辑:彭菁
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4579

    浏览量

    101640
  • 服务器
    +关注

    关注

    12

    文章

    8088

    浏览量

    82433
  • 智能家居
    +关注

    关注

    1911

    文章

    9138

    浏览量

    179174

原文标题:Microsoft Azure 认知服务和NVIDIA AI提升Microsoft Teams实时字幕和转录功能

文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    使用NVIDIA Triton推理服务器来加速AI预测

    这家云计算巨头的计算机视觉和数据科学服务使用 NVIDIA Triton 推理服务器来加速 AI 预测。
    的头像 发表于 02-29 14:04 202次阅读

    服务器远程不上服务器怎么办?服务器无法远程的原因是什么?

    运营商。 2.服务器网络问题 解决办法:通过路由图来确定是哪里的线路出现丢包,联系服务器商切换线路。 二、服务器问题 服务器带宽跑满、服务器
    发表于 02-27 16:21

    linux服务器和windows服务器

    Linux服务器和Windows服务器是目前应用最广泛的两种服务器操作系统。两者各有优劣,也适用于不同的应用场景。本文将 对Linux服务器和Windows
    发表于 02-22 15:46

    利用NVIDIA产品技术组合提升用户体验

    本案例通过利用NVIDIA TensorRT-LLM加速指令识别深度学习模型,并借助NVIDIA Triton
    的头像 发表于 01-17 09:30 353次阅读

    在线研讨会 | 大模型时代语音 AI 模型的训练、优化与应用

    通过业界领先的技术,帮助企业能够快速部署定制化 AI 智能语音端到端流程。 2023 年 12 月 19 日和 21 日 晚间 ,来自 NVIDIA 和 Kaldi 项目的技术专家将做客 Datafun 社区直播间 ,为您介绍如
    的头像 发表于 12-15 15:50 245次阅读
    在线研讨会 | 大<b class='flag-5'>模型</b>时代<b class='flag-5'>语音</b> AI <b class='flag-5'>模型</b>的训练、<b class='flag-5'>优化</b>与应用

    串口服务器如何使用OneNET平台MQTT服务器通讯教程 #MQTT #串口服务器 #OneNET平台

    串口服务器
    亿佰特物联网应用专家
    发布于 :2023年10月26日 15:47:36

    周四研讨会预告 | 注册报名 NVIDIA AI Inference Day - 大模型推理线上研讨会

    ,使用 NVIDIA Triton TM  推理服务器进行端到端部署 LLM Serving,以及金融行业的 AI、NLP/LLM 应用场景、客户案例。 通过本次活动,您将了解基于上述
    的头像 发表于 10-26 09:05 189次阅读

    什么是服务器虚拟化?私人云服务器

    什么是 服务器虚拟化 ? 服务器虚拟化是一种将物理服务器转化为虚拟服务器的过程,使得多个虚拟服务器可以在同一台物理
    的头像 发表于 08-08 10:44 845次阅读

    KepServer如何开启OPCUA服务器

    服务器软件
    学习电子知识
    发布于 :2023年07月26日 21:29:01

    如何使用NVIDIA Triton 推理服务器来运行推理管道

    使用集成模型NVIDIA Triton 推理服务器上为 ML 模型管道提供
    的头像 发表于 07-05 16:30 1153次阅读
    如何使用<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Triton</b> <b class='flag-5'>推理</b><b class='flag-5'>服务器</b>来运行<b class='flag-5'>推理</b>管道

    NVIDIA GPU 加速 WPS Office AI 服务,助力打造优质的用户体验

    案例介绍 金山办公与 NVIDIA 团队合作,通过 NVIDIA Tensor Core GPU、TensorRT 提升图像文档识别与理解的推理效率;借助
    的头像 发表于 06-29 21:35 383次阅读
    <b class='flag-5'>NVIDIA</b> GPU 加速 WPS Office AI <b class='flag-5'>服务</b>,助力打造优质的用户体验

    什么是服务器指令?

    服务器
    YS YYDS
    发布于 :2023年06月23日 01:02:04

    AI服务器与传统服务器的区别是什么?

    AI 服务器确实是整个服务器市场的一部分,但它们是专门为基于云的 AI 模型训练或推理而设计的。在规格方面,广义的AI服务器是指搭载AI芯片
    发表于 06-21 12:40 1305次阅读

    本地服务器与云服务器哪个好?

    的优缺点,并帮助您确定哪些设置适合我们的数据保护和  安全。 本地服务器和云服务器的优缺点: 本地服务器并不比云服务器提供更多的安全优势。
    的头像 发表于 05-17 16:56 1107次阅读

    关于Linux服务器优化的九个技巧

    正常使用环境下的服务器对时间的要求是精准的,我的邮件服务器的dovecot服务,以前经常因为时间问题自动停止服务
    发表于 05-10 09:31 332次阅读