0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

KT利用NVIDIA AI平台训练大型语言模型

NVIDIA英伟达企业解决方案 来源:NVIDIA英伟达企业解决方案 作者:NVIDIA英伟达企业解 2022-09-27 09:24 次阅读

韩国先进的移动运营商构建包含数百亿个参数的大型语言模型,并使用 NVIDIA DGX SuperPOD 平台和 NeMo Megatron 框架训练该模型。

在韩国受欢迎的 AI 语音助手 GiGA Genie 每天会与 800 万人交谈。

这款 AI 赋能的扬声器由电信公司 KT 提供,不仅能控制电视和提供实时流量更新信息,还能根据语音命令完成大量其他家居辅助任务。得益于大型语言模型 (LLM)(能根据庞大的文本数据集识别、理解、预测和生成人类语言的机器学习算法),这款扬声器掌握了以极为复杂的韩语进行对话的技能。

该公司构建了包含数百亿个参数的 LLM,并且使用NVIDIA DGX SuperPOD数据中心基础架构平台与NeMo Megatron框架来训练和部署这些模型。

毫无疑问,韩语 (Hangul) 是一种极为复杂的语言。它包含四种类型的复合动词,而且词语通常由两个或更多个词根组成。

KT 是韩国先进的移动运营商,拥有超过 2200 万用户。该公司通过开发包含大约 400 亿个参数的 LLM,提高了智能扬声器对此类词语的理解能力。此外,通过与 Amazon Alexa 进行集成,GiGA Genie 也可以使用英语与用户交谈。

KT 的 LLM 开发团队负责人 Hwijung Ryu 说道:“借助基于Transformer的模型,我们显著改善了 GiGA Genie 智能扬声器和我们客户服务平台 AI 联络中心 (AICC) 的品质。”

AICC 是基于云的一体式平台,可提供 AI 语音代理和其他与客户服务相关的应用。

它可以接听电话并提供客户需要的信息,或者快速将客户转接到人工代理,以便对更详细的询问进行解答。Ryu 指出,无需人工干预的 AICC 每天可以管理韩国各地打来的 10 万多个电话。

他补充说道:“LLM 使 GiGA Genie 能够更好地理解语言并生成更接近人类语言的句子,而 AICC 能更快地对询问类型进行汇总和分类,从而将咨询时间缩短 15 秒。”

训练大型语言模型

开发 LLM 可能是一个成本高昂且耗费时间的过程,并需要深厚的专业技术知识和巨大的全栈技术投资。

NVIDIA AI 平台简化并加快了 KT 的这一过程。

Ryu 说:“我们利用 NVIDIA DGX SuperPOD 的强大性能以及 NeMo Megatron 的优化算法和 3D 并行技术,更有成效地训练了 LLM 模型。NeMo Megatron 不断采用新功能,这是我们认为它在提高模型准确性方面的巨大优点。”

3D 并行对训练 KT 的 LLM 至关重要,它是一种分布式训练方法,可将超大规模的深度学习模型分散到多台设备上。Ryu 指出,NeMo Megatron 使团队能够以尽可能高的吞吐量轻松完成这项任务。

他补充道:“我们考虑过使用其他平台,但很难找到从硬件级别到推理级别都能提供全栈环境的替代平台。NVIDIA 还提供来自产品、工程团队等的出色专业知识,使我们轻松解决了多个技术问题。”

Ryu 表示,通过使用 NeMo Megatron 中的超参数优化工具,KT 训练其 LLM 的速度比使用其他框架快 2 倍。借助这些工具,用户可以自动找到更适合 LLM 训练和推理的配置,从而简化和加快开发与部署过程。

KT 还计划使用NVIDIA Triton 推理服务器来提供优化的实时推理服务,以及使用NVIDIA Base Command Manager轻松监控和管理其 AI集群中的数百个节点。

Ryu 说:“得益于 LLM,KT 可以比以往更快地发布充满竞争力的产品。我们还确信我们的技术可以推动其他公司的创新,因为它可以用来增加价值和创造新颖的产品。”

KT 计划在 11 月向开发者发布 20 多个自然语言理解和自然语言生成 API(应用程序编程接口)。这些 API 可用于多种任务,包括文档摘要和分类、情绪识别和潜在不当内容的过滤等。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4588

    浏览量

    101702
  • AI
    AI
    +关注

    关注

    87

    文章

    26424

    浏览量

    264029
  • 语言模型
    +关注

    关注

    0

    文章

    434

    浏览量

    10043

原文标题:GTC22 | 不会挂机的韩语语音服务:KT 利用 NVIDIA AI 训练智能扬声器和客户呼叫中心

文章出处:【微信号:NVIDIA-Enterprise,微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    基于NVIDIA Megatron Core的MOE LLM实现和训练优化

    本文将分享阿里云人工智能平台 PAI 团队与 NVIDIA Megatron-Core 团队在 MoE (Mixture of Experts) 大语言模型(LLM)实现与
    的头像 发表于 03-22 09:50 157次阅读
    基于<b class='flag-5'>NVIDIA</b> Megatron Core的MOE LLM实现和<b class='flag-5'>训练</b>优化

    在线研讨会 | 大模型时代语音 AI 模型训练、优化与应用

    AI模型在语音识别、自然语言处理等领域已经取得了令人瞩目的成就。语音 AI(Speech AI)技术已经广泛应用在数字人、实时翻译、语音
    的头像 发表于 12-15 15:50 252次阅读
    在线研讨会 | 大<b class='flag-5'>模型</b>时代语音 <b class='flag-5'>AI</b> <b class='flag-5'>模型</b>的<b class='flag-5'>训练</b>、优化与应用

    NVIDIA 为部分大型亚马逊 Titan 基础模型提供训练支持

    本文将介绍亚马逊如何使用 NVIDIA NeMo 框架、GPU 以及亚马逊云科技的 EFA 来训练其 最大的新一代大语言模型(LLM)。 大语言
    的头像 发表于 11-29 21:15 318次阅读
    <b class='flag-5'>NVIDIA</b> 为部分<b class='flag-5'>大型</b>亚马逊 Titan 基础<b class='flag-5'>模型</b>提供<b class='flag-5'>训练</b>支持

    利用 NVIDIA Jetson 实现生成式 AI

    的无限可能性。不同于其他嵌入式平台,Jetson 能够在本地运行大语言模型(LLM)、视觉 Transformer 和 stable diffusion,包括在 Jetson AGX Orin
    的头像 发表于 11-07 21:25 483次阅读
    <b class='flag-5'>利用</b> <b class='flag-5'>NVIDIA</b> Jetson 实现生成式 <b class='flag-5'>AI</b>

    硅谷:设计师利用生成式 AI 辅助芯片设计

    如何助力芯片设计,后者是当今最复杂的工程工作之一。   这项工作展示了高度专业化领域的公司如何利用内部数据训练语言模型,从而开发提高生产力的 A
    发表于 11-01 14:45 164次阅读
    硅谷:设计师<b class='flag-5'>利用</b>生成式 <b class='flag-5'>AI</b> 辅助芯片设计

    训练语言模型带来的硬件挑战

    生成式AI和大语言模型(LLM)正在以难以置信的方式吸引全世界的目光,本文简要介绍了大语言模型训练
    的头像 发表于 09-01 17:14 1108次阅读
    <b class='flag-5'>训练</b>大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>带来的硬件挑战

    NVIDIA 与 Hugging Face 将连接数百万开发者与生成式 AI 超级计算

    NVIDIA DGX Cloud 集成到 Hugging Face 平台将加速大语言模型(LLM)的训练和调优,简化了几乎每个行业的
    发表于 08-09 11:41 108次阅读
    <b class='flag-5'>NVIDIA</b> 与 Hugging Face 将连接数百万开发者与生成式 <b class='flag-5'>AI</b> 超级计算

    训练好的ai模型导入cubemx不成功怎么解决?

    训练好的ai模型导入cubemx不成功咋办,试了好几个模型压缩了也不行,ram占用过大,有无解决方案?
    发表于 08-04 09:16

    NVIDIA Omniverse让AI训练变得更加简单易用

    Rendered.aiNVIDIA Omniverse Replicator 集成到其合成数据生成平台,使 AI 训练变得更加简单易用
    的头像 发表于 07-24 09:14 829次阅读
    <b class='flag-5'>NVIDIA</b> Omniverse让<b class='flag-5'>AI</b><b class='flag-5'>训练</b>变得更加简单易用

    大型语言模型的应用

       大型语言模型(LLM) 是一种深度学习算法,可以通过大规模数据集训练来学习识别、总结、翻译、预测和生成文本及其他内容。大语言
    的头像 发表于 07-05 10:27 1615次阅读

    浅析AI大型语言模型研究的发展历程

    大型语言模型研究的发展有三条技术路线:Bert 模式、GPT 模式、混合模式。其中国内大多采用混合模式, 多数主流大型语言
    发表于 06-09 12:34 3749次阅读
    浅析<b class='flag-5'>AI</b><b class='flag-5'>大型</b><b class='flag-5'>语言</b><b class='flag-5'>模型</b>研究的发展历程

    NVIDIA AI 技术助力 vivo 文本预训练模型性能提升

    vivo AI 团队与 NVIDIA 团队合作,通过算子优化,提升 vivo 文本预训练模型训练速度。在实际应用中,
    的头像 发表于 05-26 07:15 444次阅读
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> 技术助力 vivo 文本预<b class='flag-5'>训练</b>大<b class='flag-5'>模型</b>性能提升

    什么是预训练AI模型

    训练 AI 模型是为了完成特定任务而在大型数据集上训练的深度学习模型。这些
    的头像 发表于 05-25 17:10 633次阅读

    NVIDIA 与微软合作加速企业就绪的生成式 AI

    NVIDIA AI Enterprise 与 Azure 机器学习集成,提供端到端云平台,供开发者构建、部署和管理大型语言
    的头像 发表于 05-25 09:15 376次阅读
    <b class='flag-5'>NVIDIA</b> 与微软合作加速企业就绪的生成式 <b class='flag-5'>AI</b>

    ServiceNow 与 NVIDIA 宣布联合打造面向企业 IT 的生成式 AI

    基于 ServiceNow 平台并采用 NVIDIA AI 软件和 DGX 基础设施构建的自定义大型语言
    的头像 发表于 05-19 00:50 365次阅读
    ServiceNow 与 <b class='flag-5'>NVIDIA</b> 宣布联合打造面向企业 IT 的生成式 <b class='flag-5'>AI</b>