0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA GPU 加速 WPS Office AI 服务,助力打造优质的用户体验

NVIDIA英伟达 来源:未知 2023-06-29 21:35 次阅读

案例介绍

金山办公与 NVIDIA 团队合作,通过 NVIDIA Tensor Core GPU、TensorRT 提升图像文档识别与理解的推理效率;借助 NVIDIA Triton 推理服务器的部署,成功优化 GPU 利用率,提供高推理吞吐量。

客户简介及应用背景

金山办公是一家办公软件和服务提供商,主要从事 WPS Office 办公软件产品及服务的设计研发及销售推⼴。产品包括 WPS Office 办公软件、⾦⼭⽂档等协同办公产品、图像文档识别与理解业务,可在 Windows、Linux、macOS、AndroidiOSHarmony 等众多主流操作平台上应⽤,于全球也有越来越多的用户乐享金山办公提供的产品和服务。

在办公场景中,文档类型图像被广泛使用,比如证件、发票、合同、保险单、扫描书籍、拍摄的表格等,这类图像包含了大量的纯文本信息,还包含有表格、图片、印章、手写、公式等复杂的版面布局和结构信息。早前这些信息均采用人工来处理,需要耗费大量人力,很大程度上阻碍了企业的办公效率 。其图像文档识别与内容理解业务就是为了解决此类用户痛点。

自 2017 年以来的不断耕耘,金山办公在图像文档识别与理解领域已达到了国内领先水平。其主要使用了 CV(Computer Vision)与 VIE(Visual Information Extraction 视觉信息抽取) 等相关深度学习技术,例如通过 CV 技术识别发票和 PDF 大纲并获取其中的数据关系,其日请求次数已达上亿次。

客户挑战

图像识别与理解是一个很复杂的过程,一个任务的 pipeline 用到的深度学习模型多达 20+ 个,且日请求量级较大(上亿级别)需要大量的计算资源。当业务落地时,团队主要面临以下两个挑战:

1、任务的绝对耗时不能过长。

2、成本问题。

应用方案

为了解决上诉的两个挑战,金山办公采用了 NVIDIA T4 Tensor Core GPU 进行推理、NVIDIA TensorRT 8.2.4 进行模型加速、NVIDIA Triton 推理服务器 22.04 在 K8S 上进行模型部署与编排。

长链路(多达 20+ 个模型的 pipeline)意味着长耗时,若基于 CPU 推理的话,pipeline 耗时会长达 15 秒左右,通过 GPU 推理和 TensorRT 加速,成功将耗时降低到了 2.4 秒左右。

模型部署的时候,常见的做法是推理与业务代码(前后处理)放在一个进程空间里,每个模型需要在每个进程中加载一次,由于显存的限制,很多时候难以得到较高的单卡 GPU 使用率。就算采用了进程池的方式提高了单卡的 GPU 利用率,也会因 CPU 的限制,出现机器整体的 GPU 利用率不高。而在引入了 Triton 推理服务器进行推理部署后,将推理与业务代码解耦,初步实现将 GPU 资源池化调度。最终在同等业务规模情况下,部署成本节省了 23%。

模型耗时

718fdc70-167e-11ee-962d-dac502259ad0.png

表1 模型耗时

模型吞吐量对比图

71b7a9d0-167e-11ee-962d-dac502259ad0.png

71ea4c8c-167e-11ee-962d-dac502259ad0.png

721f1700-167e-11ee-962d-dac502259ad0.png

WPS 生成式 AI最新进展

WPS AI 紧跟业界潮流,再发布新 AI 能力,覆盖文字、表格、PPT、PDF 四大办公组件。这部分 AI 新能力集中在阅读理解、问答、人机交互等方面。在 PPT 中,WPS AI 现已支持输入主题,一键生成 PPT 演示文稿,并会根据用户要求进行细化调节,如更改主题风格、单页美化、更改字体、更改配色、生成演讲稿等等。

在 PDF 中,WPS 则展示了阅读分析和理解能力。WPS AI 能够阅读包括论文、合同、课件等文档,用户以问答方式则可以获得关键信息。并且,问答助手也会提供文档溯源功能,确保用户能够得知信息来源。

用户能够通过手机等移动设备拍摄相关文档,而后 WPS 给出相关翻译、概括、分析等功能。

图 1. WPS-AI 随手拍与文档问答

728779a8-167e-11ee-962d-dac502259ad0.jpg

图 2. WPS-AI 大纲生成

图 3. WPS-AI PPT 美化

图 4. WPS-AI PPT 生成

使用效果及影响

金山办公图像文档识别与理解业务,通过采用 NVIDIA T4 Tensor Core GPU TensorRT加速,相比于 CPU 其 pipleline 耗时共下降 84%;而采用 NVIDIA Triton 推理服务器部署,其部署成本节省了 23% 。

金山办公 CV 团队总监熊龙飞表示:”我们有多个业务后边的 AI 服务已经通过采用该方案提高了速度和资源利用率,不仅给用户端带去了更高的速度响应,提高了用户体验,也为公司节约了大量的服务端 GPU 资源,收获了更高的效益。我们在文档识别与理解领域的应用案例也可以启发到 OCR 和版式识别领域的其他公司和学者,相信随着更多客户通过采用 TensorRT 加速会给行业带来很大的收益。”

*本文中图片均来源于金山办公,如果您有任何疑问或需要使用本文中的图片,请联系金山办公

点击“阅读原文”,或扫描下方海报二维码观看 NVIDIA 创始人兼 CEO 黄仁勋在 COMPUTEX 2023 的主题演讲直播回放,主题演讲中文字幕版已上线,了解 AI、图形及其他领域的最新进展!


原文标题:NVIDIA GPU 加速 WPS Office AI 服务,助力打造优质的用户体验

文章出处:【微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英伟达
    +关注

    关注

    22

    文章

    3330

    浏览量

    87786

原文标题:NVIDIA GPU 加速 WPS Office AI 服务,助力打造优质的用户体验

文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    利用NVIDIA组件提升GPU推理的吞吐

    本实践中,唯品会 AI 平台与 NVIDIA 团队合作,结合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)将推理的稠密网络和热
    的头像 发表于 04-20 09:39 166次阅读

    NVIDIA和谷歌云宣布开展一项新的合作,加速AI开发

    NVIDIA 和谷歌云宣布开展一项新的合作,以帮助全球初创企业加速创建生成式 AI 应用和服务
    的头像 发表于 04-11 14:03 164次阅读

    使用NVIDIA Triton推理服务器来加速AI预测

    这家云计算巨头的计算机视觉和数据科学服务使用 NVIDIA Triton 推理服务器来加速 AI 预测。
    的头像 发表于 02-29 14:04 214次阅读

    HarmonyOS SDK 助力新浪新闻打造精致易用的新闻应用

    信号不佳及离线场景下,AI 朗读能力依然能够继续使用;此外,通过应用服务领域开放的 Location Kit,新浪新闻还能够准确快速获取用户所在地的新闻,让用户随时随地纵享流畅丝滑的听
    发表于 02-07 15:51

    Supermicro推新AI存储方案,助力AI和ML应用加速

    Supermicro首席执行官梁见后先生高瞻远瞩地指出:针对AI和ML应用的加速处理,我们推荐配置以每机柜20 PB高速闪存为主,配备四个NVIDIA HGX H100系列优化版8-GPU
    的头像 发表于 02-03 14:46 370次阅读

    NVIDIA 初创加速计划 Omniverse 加速

    新的 AI 技术和迅速发展的应用正在改变各行各业,生成式 AI 已经展示出在艺术、设计、影视动画、互娱、建筑等领域加速内容创作的价值,助力实现高质量、高效率、多样化的内容生产,成为推动
    的头像 发表于 12-04 20:35 401次阅读
    <b class='flag-5'>NVIDIA</b> 初创<b class='flag-5'>加速</b>计划 Omniverse <b class='flag-5'>加速</b>营

    NVIDIA 为全球领先的 AI 计算平台 Hopper 再添新动力

    Tensor Core GPU 和领先的显存配置,可处理生成式 AI 与高性能计算工作负载的海量数据。   NVIDIA H200 是首款采用 HBM3e 的 GPU,其运行更快、更
    发表于 11-14 14:30 112次阅读
    <b class='flag-5'>NVIDIA</b> 为全球领先的 <b class='flag-5'>AI</b> 计算平台 Hopper 再添新动力

    NVIDIA GPU 助力筷子科技,升级更全面和 AI 原生化的内容商业全链路平台

    。案例介绍 通过 NVIDIA GPU ,筷子科技加强和提升了数据处理、模型训练等方面的能力与效率,最新升级的 Kuaizi 3.0 平台基于此,打造了更多 AI 原生化的应用,大幅提
    的头像 发表于 11-13 20:45 338次阅读
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>GPU</b> <b class='flag-5'>助力</b>筷子科技,升级更全面和 <b class='flag-5'>AI</b> 原生化的内容商业全链路平台

    创新企业云福利:腾讯云 × NVIDIA 初创加速计划

    助力生成式 AI、大模型训练与推理、自动驾驶、图像处理等场景初创企业加速成长,最高获赠 10 万元扶持基金、NVIDIA 深度学习培训中心(DLI)优惠课程,以及免费的
    的头像 发表于 11-13 20:40 384次阅读
    创新企业云福利:腾讯云 × <b class='flag-5'>NVIDIA</b> 初创<b class='flag-5'>加速</b>计划

    177倍加速NVIDIA最新开源 | GPU加速各种SDF建图!

    但最近,NVIDIA和ETHZ就联合提出了nvblox,是一个使用GPU加速SDF建图的库。计算速度非常快,相较CPU计算TSDF甚至快了177倍。更重要的是,因为所有数据都已经存储在GPU
    的头像 发表于 11-09 16:46 561次阅读
    177倍<b class='flag-5'>加速</b>!<b class='flag-5'>NVIDIA</b>最新开源 | <b class='flag-5'>GPU</b><b class='flag-5'>加速</b>各种SDF建图!

    Oracle 云基础设施提供新的 NVIDIA GPU 加速计算实例

    生成式 AI 和大语言模型(LLM)不断推动突破性创新,训练和推理对算力的需求也随之急剧上升。 这些现代生成式 AI 应用需要全栈加速计算,首先要有能够快速、准确处理大量工作负载的先进基础设施
    的头像 发表于 09-25 20:40 289次阅读
    Oracle 云基础设施提供新的 <b class='flag-5'>NVIDIA</b> <b class='flag-5'>GPU</b> <b class='flag-5'>加速</b>计算实例

    NVIDIA AI Enterprise 4.0 推出,助力企业构建生产就绪的生成式 AI 为业务赋能

    时。NVIDIA 正在将专业知识投入到解决方案的开发过程中,助力企业实现这样的飞跃。 推出 NVIDIA AI Enterprise 4.0 最新版 
    的头像 发表于 09-19 20:20 392次阅读
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Enterprise 4.0 推出,<b class='flag-5'>助力</b>企业构建生产就绪的生成式 <b class='flag-5'>AI</b> 为业务赋能

    全球领先系统制造商推出 NVIDIA AI 就绪型服务器,为企业大幅提升生成式 AI 性能

    戴尔科技、慧与和联想即将推出采用 NVIDIA L40S GPUNVIDIA BlueField 的服务器,以支持 VMware Private
    的头像 发表于 08-23 19:10 382次阅读

    SIGGRAPH 2023 | NVIDIA 与全球数据中心系统制造商大力推动 AI 与工业数字化的发展

    OVX 服务器采用全新 NVIDIA GPU加速训练和推理以及图形密集型工作负载,将通过戴尔科技、慧与、联想、超微等公司提供。 洛杉矶 — SIGGRAPH — 太平洋时间 202
    的头像 发表于 08-09 19:10 285次阅读

    NVIDIA 软硬件支持 AI 全流程,助力便利蜂打造新一代 AI 陈列质量控制系统

    便利蜂通过使用 NVIDIA T4 GPUNVIDIA Jetson 计算平台,结合云端和边缘算力,打造 AI 陈列质量控制系统,提升
    的头像 发表于 07-10 20:25 308次阅读