0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

KT利用NVIDIA AI平台训练大型语言模型

NVIDIA英伟达企业解决方案 来源:NVIDIA英伟达企业解决方案 作者:NVIDIA英伟达企业解 2022-09-27 09:24 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

韩国先进的移动运营商构建包含数百亿个参数的大型语言模型,并使用 NVIDIA DGX SuperPOD 平台和 NeMo Megatron 框架训练该模型。

在韩国受欢迎的 AI 语音助手 GiGA Genie 每天会与 800 万人交谈。

这款 AI 赋能的扬声器由电信公司 KT 提供,不仅能控制电视和提供实时流量更新信息,还能根据语音命令完成大量其他家居辅助任务。得益于大型语言模型 (LLM)(能根据庞大的文本数据集识别、理解、预测和生成人类语言的机器学习算法),这款扬声器掌握了以极为复杂的韩语进行对话的技能。

该公司构建了包含数百亿个参数的 LLM,并且使用NVIDIA DGX SuperPOD数据中心基础架构平台与NeMo Megatron框架来训练和部署这些模型。

毫无疑问,韩语 (Hangul) 是一种极为复杂的语言。它包含四种类型的复合动词,而且词语通常由两个或更多个词根组成。

KT 是韩国先进的移动运营商,拥有超过 2200 万用户。该公司通过开发包含大约 400 亿个参数的 LLM,提高了智能扬声器对此类词语的理解能力。此外,通过与 Amazon Alexa 进行集成,GiGA Genie 也可以使用英语与用户交谈。

KT 的 LLM 开发团队负责人 Hwijung Ryu 说道:“借助基于Transformer的模型,我们显著改善了 GiGA Genie 智能扬声器和我们客户服务平台 AI 联络中心 (AICC) 的品质。”

AICC 是基于云的一体式平台,可提供 AI 语音代理和其他与客户服务相关的应用。

它可以接听电话并提供客户需要的信息,或者快速将客户转接到人工代理,以便对更详细的询问进行解答。Ryu 指出,无需人工干预的 AICC 每天可以管理韩国各地打来的 10 万多个电话。

他补充说道:“LLM 使 GiGA Genie 能够更好地理解语言并生成更接近人类语言的句子,而 AICC 能更快地对询问类型进行汇总和分类,从而将咨询时间缩短 15 秒。”

训练大型语言模型

开发 LLM 可能是一个成本高昂且耗费时间的过程,并需要深厚的专业技术知识和巨大的全栈技术投资。

NVIDIA AI 平台简化并加快了 KT 的这一过程。

Ryu 说:“我们利用 NVIDIA DGX SuperPOD 的强大性能以及 NeMo Megatron 的优化算法和 3D 并行技术,更有成效地训练了 LLM 模型。NeMo Megatron 不断采用新功能,这是我们认为它在提高模型准确性方面的巨大优点。”

3D 并行对训练 KT 的 LLM 至关重要,它是一种分布式训练方法,可将超大规模的深度学习模型分散到多台设备上。Ryu 指出,NeMo Megatron 使团队能够以尽可能高的吞吐量轻松完成这项任务。

他补充道:“我们考虑过使用其他平台,但很难找到从硬件级别到推理级别都能提供全栈环境的替代平台。NVIDIA 还提供来自产品、工程团队等的出色专业知识,使我们轻松解决了多个技术问题。”

Ryu 表示,通过使用 NeMo Megatron 中的超参数优化工具,KT 训练其 LLM 的速度比使用其他框架快 2 倍。借助这些工具,用户可以自动找到更适合 LLM 训练和推理的配置,从而简化和加快开发与部署过程。

KT 还计划使用NVIDIA Triton 推理服务器来提供优化的实时推理服务,以及使用NVIDIA Base Command Manager轻松监控和管理其 AI集群中的数百个节点。

Ryu 说:“得益于 LLM,KT 可以比以往更快地发布充满竞争力的产品。我们还确信我们的技术可以推动其他公司的创新,因为它可以用来增加价值和创造新颖的产品。”

KT 计划在 11 月向开发者发布 20 多个自然语言理解和自然语言生成 API(应用程序编程接口)。这些 API 可用于多种任务,包括文档摘要和分类、情绪识别和潜在不当内容的过滤等。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5496

    浏览量

    109088
  • AI
    AI
    +关注

    关注

    89

    文章

    38091

    浏览量

    296576
  • 语言模型
    +关注

    关注

    0

    文章

    570

    浏览量

    11255

原文标题:GTC22 | 不会挂机的韩语语音服务:KT 利用 NVIDIA AI 训练智能扬声器和客户呼叫中心

文章出处:【微信号:NVIDIA-Enterprise,微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    利用NVIDIA Cosmos开放世界基础模型加速物理AI开发

    NVIDIA 最近发布了 NVIDIA Cosmos 开放世界基础模型(WFM)的更新,旨在加速物理 AI 模型的测试与验证数据生成。借助
    的头像 发表于 12-01 09:25 487次阅读

    NVIDIA推出面向语言、机器人和生物学的全新开源AI技术

    NVIDIA 秉持对开源的长期承诺,推出了面向语言、机器人和生物学的全新开源 AI 技术,为构建开源生态系统做出贡献,扩展 AI 的普及并推动创新。
    的头像 发表于 11-06 11:49 689次阅读

    Votee AI借助NVIDIA技术加速方言小语种LLM开发

    Votee AI 利用 NVIDIA 的 GPU 硬件、NeMo Curator 数据处理软件、NeMo Framework 模型训练框架及
    的头像 发表于 08-20 14:21 650次阅读

    ai_cube训练模型最后部署失败是什么原因?

    ai_cube训练模型最后部署失败是什么原因?文件保存路径里也没有中文 查看AICube/AI_Cube.log,看看报什么错?
    发表于 07-30 08:15

    欧洲借助NVIDIA Nemotron优化主权大语言模型

    NVIDIA 正携手欧洲和中东的模型构建商与云提供商,共同优化主权大语言模型 (LLM),加速该地区各行业采用企业级 AI
    的头像 发表于 06-12 15:42 925次阅读

    海思SD3403边缘计算AI数据训练概述

    模型,将模型转化为嵌入式AI模型模型升级AI摄像机,进行
    发表于 04-28 11:11

    首创开源架构,天玑AI开发套件让端侧AI模型接入得心应手

    应用开发不用“等平台”,彻底释放开发效率和模型接入自由度。 自DeepSeek横空出世以来,这种更适合端侧部署,回答效率更高效的训练模式快速引爆了AI行业,主流大
    发表于 04-13 19:52

    Cognizant将与NVIDIA合作部署神经人工智能平台,加速企业人工智能应用

    -Cognizant将与NVIDIA合作部署神经人工智能平台,加速企业人工智能应用 Cognizant将在关键增长领域提供解决方案,包括企业级AI智能体、定制化行业大型
    的头像 发表于 03-26 14:42 578次阅读
    Cognizant将与<b class='flag-5'>NVIDIA</b>合作部署神经人工智能<b class='flag-5'>平台</b>,加速企业人工智能应用

    利用RAKsmart服务器托管AI模型训练的优势

    AI模型训练需要强大的计算资源、高效的存储和稳定的网络支持,这对服务器的性能提出了较高要求。而RAKsmart服务器凭借其核心优势,成为托管AI模型
    的头像 发表于 03-18 10:08 521次阅读

    训练好的ai模型导入cubemx不成功怎么处理?

    训练好的ai模型导入cubemx不成功咋办,试了好几个模型压缩了也不行,ram占用过大,有无解决方案?
    发表于 03-11 07:18

    小白学大模型训练语言模型的深度指南

    在当今人工智能飞速发展的时代,大型语言模型(LLMs)正以其强大的语言理解和生成能力,改变着我们的生活和工作方式。在最近的一项研究中,科学家们为了深入了解如何高效地
    的头像 发表于 03-03 11:51 1209次阅读
    小白学大<b class='flag-5'>模型</b>:<b class='flag-5'>训练</b>大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>的深度指南

    NVIDIA发布Cosmos™平台,助力物理AI系统发展

    基础模型、高级tokenizer、护栏以及加速视频处理管线等多项先进技术。其中,Cosmos世界基础模型(WFM)是平台的核心,它使开发者能够轻松生成大量基于物理学的逼真合成数据。这些数据对于
    的头像 发表于 01-08 15:36 895次阅读

    NVIDIA Cosmos世界基础模型平台发布

    NVIDIA 宣布推出NVIDIA Cosmos,该平台由先进的生成式世界基础模型、高级 tokenizer、护栏和加速视频处理管线组成,将推动自动驾驶汽车(AV)和机器人等物理
    的头像 发表于 01-08 10:39 1029次阅读

    GPU是如何训练AI模型

    AI模型训练过程中,大量的计算工作集中在矩阵乘法、向量加法和激活函数等运算上。这些运算正是GPU所擅长的。接下来,AI部落小编带您了解GPU是如何
    的头像 发表于 12-19 17:54 1322次阅读

    AI语言模型开发步骤

    开发一个高效、准确的大语言模型是一个复杂且多阶段的过程,涉及数据收集与预处理、模型架构设计、训练与优化、评估与调试等多个环节。接下来,AI
    的头像 发表于 12-19 11:29 1214次阅读