0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA GPU再创壮举,距真正会话AI又进一步!

张慧娟 来源:电子发烧友网 作者:张慧娟 2019-08-15 07:55 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群


会话 AI 服务已经存在多年,但不论是聊天机器人,还是智能个人助理或搜索引擎,其理解能力很难达到与人类相当的水平。主要瓶颈则在于超大型AI模型的实施部署无法实现。正因如此,不论是Google、Microsoft、Facebook,还是阿里巴巴、百度等,都在模型的部署方面孜孜以求。

NVIDIA于太平洋时间8月13日宣布重大突破:BERT训练时间实现创纪录的53分钟,推理时间缩短至2毫秒,并构建了迄今为止同类型中最大的语言模型,使得实时会话 AI与用户进行互动时更为自然。

超大模型面前,GPU再证强大可扩展性

BERT(Bidirectional Encoder Representations from Transformers)是世界上最先进的AI语言模型之一,Google于去年发布不久就刷爆AI业界。作为一种新型的语言模型,它只需一个额外的输出层对预训练BERT进行微调就可以满足各种任务,而无需再对模型进行修改,实现了在11项NLP任务上取得突破进展。

在对BERT模型进行训练时,NVIDIA使用搭载了92台 NVIDIA DGX-2H系统的 NVIDIA DGX SuperPOD运行该模型的大型版本,凭借1472个NVIDIA V100 GPU的强大性能,NVIDIA将BERT-Large的典型训练时间从几天缩短至仅仅 53 分钟

此外,NVIDIA还在单独一台NVIDIA DGX-2系统上执行了BERT-Large 模型的训练任务,用时也仅为 2.8天,充分体现了GPU在会话 AI 方面的可扩展性。

推理方面,借助于运行了NVIDIA TensorRT的NVIDIA T4 GPU,NVIDIA 执行 BERT-Base SQuAD数据集的推理任务,用时仅为2.2毫秒,远低于许多实时应用程序所需的10毫秒处理阈值;与使用高度优化的CPU代码时所测得的40多毫秒相比,有着显著改进。

对此,NVIDIA 深度学习应用研究副总裁 Bryan Catanzaro 表示,“对于适用于自然语言的AI而言,大型语言模型正在为其带来革新。NVIDIA 所取得的突破性工作成果加速了这些模型的创建,它们能够帮助解决那些最为棘手的语言问题,让我们距离实现真正的会话 AI 更进了一步

NVIDIA BERT推理解决方案Faster Transformer宣布开源

开发者们对于更大模型的需求正在日益增长,NVIDIA 研究团队基于Transformer构建并训练了世界上最大的语言模型。Transformer是BERT的技术构件,正被越来越多的其他自然语言AI模型所使用。NVIDIA定制的模型包含83亿个参数是BERT-Large的24 倍

2017年12月Google在论文“Attention is All You Need”中首次提出了Transformer,将其作为一种通用高效的特征抽取器。至今,Transformer已经被多种NLP模型采用,比如BERT以及上月发布重刷其记录的XLNet,这些模型在多项NLP任务中都有突出表现。在NLP之外,TTS、ASR等领域也在逐步采用Transformer。可以预见,Transformer这个简洁有效的网络结构会像CNN和RNN一样被广泛采用。

不过,虽然Transformer在多种场景下都有优秀表现,但是在推理部署阶段,其计算性能却受到了巨大的挑战:以BERT为原型的多层Transformer模型,其性能常常难以满足在线业务对于低延迟(保证服务质量)和高吞吐(考虑成本)的要求。以BERT-BASE为例,超过90%的计算时间消耗在12层Transformer的前向计算上。因此,一个高效的Transformer 前向计算方案,既可以为在线业务带来降本增效的作用,也有利于以Transformer结构为核心的各类网络在更多实际工业场景中落地。

NVIDIA GPU计算专家团队针对Transformer推理提出的性能优化方案Faster Transformer宣布开源,其底层基于CUDA和cuBLAS,是一个BERT Transformer 单层前向计算的高效实现,其代码简洁明了,后续可以通过简单修改支持多种Transformer结构。目前优化集中在编码器(encoder)的前向计算(解码器decoder开发在后续特性规划中),能够助力于多种BERT的应用场景。Faster Transformer对外提供C++ APITensorFlow OP 接口,以及TensorRT插件,并提供了相应的示例,用以支持用户将其集成到不同的线上应用代码中。

2021年15%的客服互动将通过AI完成

预计未来几年,基于自然语言理解的 AI 服务将呈指数级增长。根据Juniper Research 的研究表明,在未来4年中,仅数字语音助手的数量就将有望从25 亿攀升到 80 亿。此外,据Gartner预计,到 2021 年,15%的客服互动都将通过AI完成,相比2017年将增长4倍。

当前,全球数以百计的开发者都使用 NVIDIA 的 AI 平台,来推进他们自己的语言理解研究并创建新的服务。

Microsoft Bing正在通过先进的 AI 模型和计算平台,为客户提供更好的搜索体验。通过与 NVIDIA 密切合作,Bing 使用 NVIDIA GPU(Azure AI 基础设施的一部分)进一步优化了热门自然语言模型 BERT 的推理功能,从而大幅提升了 Bing 于去年部署的排名搜索的搜索质量。与基于 CPU 的平台相比,使用 Azure NVIDIA GPU 进行推理,延迟降低了一半,吞吐量提升了5倍。

多家初创公司(例如Clinc、Passage AI 和Recordsure等)正在使用 NVIDIA的AI平台为银行、汽车制造商、零售商、医疗服务提供商、旅行社和酒店等客户构建先进的会话 AI 服务。据悉,中国市场也有相应的合作伙伴,日后将进一步公开。

会话AI才是真正意义上的人工智能的基本特征,不论是语言模型还是训练、推理,底层技术的逐步强大,才是实现这一切的基础。距离我们所期望的人工智能虽然还很遥远,但技术上的每一次突破都值得记载。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5696

    浏览量

    110148
  • gpu
    gpu
    +关注

    关注

    28

    文章

    5292

    浏览量

    136113
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    奥迪与上汽集团进一步深化战略合作

    基于双方长期稳固的合作根基,奥迪与上汽集团正式签署战略合作协议,进一步深化合作。协议聚焦AUDI品牌未来车型的全价值链布局,核心覆盖整车研发领域,并将在上海设立奥迪创新技术中心。
    的头像 发表于 04-21 14:01 271次阅读

    如何进一步从SPI NOR闪存启动电路板?

    稳定性。 根据 T2080 快速入门指南文档,DIP 设置设置为 JTAG 的硬编码 RCW,并且能够使用 CCS 读取硬编码的 RCW 值。 如何进一步从 SPI NOR 闪存启动电路板
    发表于 04-16 08:51

    英飞凌继续登顶全球微控制器市场榜首,进一步巩固领先地位

    在整体市场小幅下滑的背景下,2025年市场份额达到23.2%(2024年为21.4%)集成汽车以太网以进一步强化面向软件定义汽车的微控制器业务,并为人形机器人领域开辟增长机遇英飞凌为微控制器产品组合
    的头像 发表于 03-12 17:07 1397次阅读
    英飞凌继续登顶全球微控制器市场榜首,<b class='flag-5'>进一步</b>巩固领先地位

    伟创力与AMD进一步深化战略合作

    近日,伟创力宣布与全球领先的高性能与自适应计算芯片公司 AMD(超威半导体) 进一步深化战略合作,在美国本土制造 AMD Instinct 平台,加速先进 AI 基础设施落地。作为合作的首个成果
    的头像 发表于 03-11 15:11 467次阅读

    百度萝卜快跑与Uber进一步深化战略合作

    今天,萝卜快跑与全球最大的移动出行服务平台Uber共同宣布,双方将进一步深化战略合作,计划于2026年第季度在阿联酋迪拜正式推出全无人驾驶出行服务,这也是迪拜首次迎来全无人驾驶出行服务。
    的头像 发表于 02-11 16:50 1396次阅读

    天合储能与Lightshift Energy进一步扩大战略合作

    近日,天合储能宣布将与美国领先的储能开发、建设及运营方 Lightshift Energy(以下简称 “Lightshift”) 进一步扩大战略合作。在既有合作基础上,双方历史累计及在建、将建项目合计,保障联合交付储能项目规模超过 1GWh,持续支持美国多个州的电网建设与稳定运行。
    的头像 发表于 12-22 15:14 536次阅读

    晶科储能进一步扩大英国储能项目布局

    晶科储能近日宣布进一步扩大其在英国的项目布局,新增加套140MWh的电网级储能系统。首期的140MWh项目正在交付过程中,两期项目合计容量达到280MWh,成为英国规模最大的电池储能项目之。两期项目均将采用晶科储能最先进的U
    的头像 发表于 12-09 15:19 890次阅读

    BlackBerry QNX与芯驰科技进一步深化战略合作

    BlackBerry有限公司(纽约证券交易所代码:BB;多伦多证券交易所代码:BB)旗下业务部门QNX与中国创新汽车半导体供应商芯驰科技今日宣布,双方将进一步深化合作,基于芯驰科技最新代X10
    的头像 发表于 12-04 16:42 1983次阅读

    BlackBerry QNX与众森软件进一步深化战略合作

    今日,深圳市众森软件有限公司(以下简称"众森软件")正式宣布与全球领先的实时操作系统与嵌入式软件供应商 QNX(BlackBerry有限公司旗下部门QNX)进一步深化战略合作。此次合作将进一步推动下代智能网联汽车与智慧出行解决
    的头像 发表于 12-04 16:40 2115次阅读

    上汽奥迪与创维汽车智能合作进一步深化升级

    近日,创维汽车智能迎来重要突破:上汽奥迪客户将当前公司开发的显示屏项目沿用至上汽奥迪其他主力车型。这决定不仅体现了客户对创维汽车智能技术实力与服务品质的高度认可,更标志着双方合作进一步深化升级。
    的头像 发表于 11-25 10:32 911次阅读

    NVIDIA DGX Spark助力构建自己的AI模型

    2025 年 1 月 6 日,NVIDIA 正式宣布其 Project DIGITS 项目,并于 3 月 18 日更名为 NVIDIA DGX Spark,进一步公布了产品细节。DGX Spark
    的头像 发表于 11-21 09:25 1605次阅读
    <b class='flag-5'>NVIDIA</b> DGX Spark助力构建自己的<b class='flag-5'>AI</b>模型

    通过NVIDIA Jetson AGX Thor实现7倍生成式AI性能

    Jetson Thor 平台还支持多种主流量化格式,包括 NVIDIA Blackwell GPU 架构的新 NVFP4 格式,有助于进一步优化推理性能。该平台同时支持推测解码等新技术,为在边缘端加速生成式
    的头像 发表于 10-29 16:53 1706次阅读

    美国 | FCC即将通过新规,进一步封堵华为、海康威视

    FCC即将通过新规,进一步封堵华为、海康威视2025年10月7日,美国联邦通信委员会(FCC)主席宣布,FCC委员会即将投票表决项新规,旨在填补现有法规中可能被利用的两大漏洞,以阻止存在“风险
    的头像 发表于 10-13 18:11 1244次阅读
    美国 | FCC即将通过新规,<b class='flag-5'>进一步</b>封堵华为、海康威视

    蔚来进一步拓展其全球业务

    8月18日,蔚来公司宣布将于2025年至2026年期间陆续进入新加坡、乌兹别克斯坦和哥斯达黎加三个市场,进一步拓展其全球业务,为当地用户带来创新、可持续、高品质的智能电动出行体验。
    的头像 发表于 08-20 17:00 1521次阅读

    软通动力与中国联通合作关系进一步深化

    近日,软通动力成功中标联通(广东)产业互联网有限公司2025年软件技术开发集中采购项目,中标份额位列榜首。这突破性成果,不仅彰显了软通动力在数字技术服务领域的综合实力,也标志着其与中国联通合作关系的进一步深化。
    的头像 发表于 07-01 09:18 1379次阅读