0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

腾讯云TI平台利用NVIDIA Triton推理服务器构造不同AI应用场景需求

NVIDIA英伟达企业解决方案 来源:NVIDIA英伟达企业解决方案 作者:NVIDIA英伟达企业解 2022-09-05 15:33 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

腾讯云 TI 平台 TI-ONE 利用 NVIDIA Triton 推理服务器构造高性能推理服务部署平台,使用户能够非常便捷地部署包括 TNN 模型在内的多种深度学习框架下获得的 AI 模型,并且显著提升推理服务的吞吐、提升 GPU 利用率。

腾讯云 TI 平台(TencentCloud TI Platform)是基于腾讯先进 AI 能力和多年技术经验,面向开发者、政企提供的全栈式人工智能开发服务平台,致力于打通包含从数据获取、数据处理、算法构建、模型训练、模型评估、模型部署、到 AI 应用开发的产业 + AI 落地全流程链路,帮助用户快速创建和部署 AI 应用,管理全周期 AI 解决方案,从而助力政企单位加速数字化转型并促进 AI 行业生态共建。腾讯云 TI 平台系列产品支持公有云访问、私有化部署以及专属云部署。

TI-ONE 是腾讯云 TI 平台的核心产品之一,可为 AI 工程师打造的一站式机器学习平台,为用户提供从数据接入、模型训练、模型管理到模型服务的全流程开发支持。腾讯云 TI 平台 TI-ONE 支持多种训练方式和算法框架,满足不同 AI 应用场景的需求。

通常我们在 AI 模型训练好之后,需要将其部署在云端形成 AI 服务,供应用的客户端进行调用。但如何高效地进行推理服务的部署无疑是 AI 推理平台需要面对的挑战。

一方面,推理服务部署平台需要支持多种不同深度学习框架训练出来的模型,以满足不同客户对于不同框架的偏好,甚至需要支持一些自定义的推理框架,如 TNN[1] 等。

另一方面,部署平台需要尽可能提升推理服务的性能,包括提升吞吐、降低延时,以及提升硬件资源利用率等,这就要求平台对模型的部署和调度进行高效的优化。

最后,对于由前后处理、AI 模型等多个模块组成的工作流,例如一些 AI 工作管线中除了深度学习模型之外还包含前后处理模块,推理服务部署平台也需要对各个模块进行有条不紊且高效的串联。以上这些需求,都需要对推理服务部署平台进行精心的设计和实现。

针对以上挑战,腾讯云 TI-ONE 充分利用 NVIDIA Triton 推理服务器构建高性能的推理部署解决方案,为多个行业场景的推理工作负载提升效率。

腾讯云将 Triton 集成进 TI-ONE 的推理部署服务中。行业客户仅需将需要推理的模型上传至 TI-ONE 平台上,并选择使用 Triton 作为推理后端框架,TI-ONE 便能自动地在 Kubernetes 集群上自动拉起 Triton 容器。在容器内,Triton 服务器将会启动,并根据客户选定的配置参数,自动地加载用户上载的模型,以模型实例的方式管理起来,并对外提供推理服务请求的接口

Triton 支持绝大部分主流深度学习框架的推理,包括 TensorRT, TensorFlow, PyTorch, ONNX Runtime 等。除此之外,Triton 还支持扩展自定义的推理框架 Backend。TNN 是腾讯自研的开源高性能、轻量级神经网络推理框架,被广泛应用于腾讯云行业解决方案的推理场景中。腾讯云遵循 Triton Backend API [2],实现了 Triton TNN Backend,使得 TNN 模型能够直接被 Triton 推理服务器加载、管理以及执行推理。

ac1138d6-2ac9-11ed-ba43-dac502259ad0.jpg

图1. 加入 TNN Backend 的 Triton 推理服务器架构示意图

为了提升推理服务的性能、提升硬件资源利用率,腾讯云 TI-ONE 利用了 Triton 提供的 Dynamic Batching 功能。在部署推理服务时,用户可选择开启该功能,Triton 则会自动地将到达服务端的零散推理请求(通常 batch size 较小)聚合成大的 batch,输入对应的模型实例中进行推理。如此,GPU 在执行更大 batch size 的推理时能达到更高的利用率,从而提升服务的吞吐。且用户可在 TI-ONE 平台中设置将多个请求组合成 batch 的等待时长,以便在延时和吞吐之间权衡。不仅如此,TI-ONE 还利用 Triton 的 Concurrent Model Execution 功能,在每张 NVIDIA GPU 上同时部署相同或不同模型的多个模型实例,使得在单个模型较为轻量的情况下,通过多个模型实例的并行执行来充分利用 GPU 的计算资源,在提升 GPU 利用率的同时获得更高的吞吐。

ac260770-2ac9-11ed-ba43-dac502259ad0.jpg

图2. Triton Dynamic Batching 机制示意图

最后,针对需要部署由多个模块组合的 AI 工作管线的应用场景,TI-ONE 正与 NVIDIA 一起积极探索如何利用 Triton Ensemble Model 以及 Triton Python Backend,将前后处理模块与 AI 模型有序地串联在一起。其中,Triton Python Backend 能够直接将现有的 Python 前后处理代码封装为可在 Triton 上部署的模块;Triton Ensemble Model 是一种特殊的调度器,可通过配置文件定义多个模块之间的连接关系,并自动地将推理请求在定义好的工作管线上进行有条不紊的调度。

目前,腾讯云 TI 平台 TI-ONE 利用 NVIDIA Triton 已为多种不同的行业解决方案提供了高性能的推理服务,包括工业质检、自动驾驶等业务场景,涉及到的图像分类、对象检测、以及实例分割等 AI 任务。

通过 Triton 提供的多框架支持以及扩展的 TNN Backend,无论用户使用何种框架训练 AI 模型,都能在 TI-ONE 上部署其推理服务,给了算法工程师更大的选择自由度,节省了模型转换的开销。利用 Triton 的 Dynamic Batching 机制和 Concurrent Model Execution 功能, TI-ONE 在某一目标检测场景部署 FasterRCNN ResNet50-FPN 模型,相比于使用 Tornado 部署框架在 NVIDIA T4 Tensor Core GPU 上最高可获得 31.6% 的吞吐提升,如下图所示:

ac46fdf4-2ac9-11ed-ba43-dac502259ad0.jpg

图 3. TI-ONE 中不同推理服务框架部署目标检测模型时所实现的服务吞吐量对比

2022 腾讯云

此图片依据由腾讯云提供数据所制作

在另一图像分类业务中,TI-ONE 利用 Triton 的 Dynamic Batching 机制部署包含前后处理及模型推理的工作管线,结合 TNN 对推理的加速,在 1/2 T4 Tensor Core GPU 上,相比于 Python 实现的 HTTP Server 获得最高 2.6 倍延时缩减及最高 2.5 倍吞吐的提升,如下表所示:

ac643e14-2ac9-11ed-ba43-dac502259ad0.png

表 1. TI-ONE 中不同推理服务框架部署图像分类模型时所实现的服务性能对比

2022 腾讯云

此表格依据由腾讯云提供数据所制作

未来,腾讯云 TI 平台将与 NVIDIA 团队继续合作,探索利用 Triton 对复杂工作管线进行推理服务部署的解决方案,进一步为各个行业的 AI 推理场景提供更高效率、更低成本的推理平台。

审核编辑:彭静
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5682

    浏览量

    110111
  • 服务器
    +关注

    关注

    14

    文章

    10347

    浏览量

    91741
  • AI
    AI
    +关注

    关注

    91

    文章

    41027

    浏览量

    302555
  • 腾讯云
    +关注

    关注

    0

    文章

    224

    浏览量

    17497

原文标题:NVIDIA Triton 助力腾讯云 TI-ONE 平台为行业解决方案提供高性能 AI 推理部署服务

文章出处:【微信号:NVIDIA-Enterprise,微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    Supermicro率先发布NVIDIA BlueField-4 STX存储服务器,提升AI推理性能

      Supermicro凭借其基于NVIDIA STX AI存储参考架构打造的上下文内存(CMX)存储服务器,进一步彰显其行业领先地位。 BlueField-4 STX存储服务器结合了
    的头像 发表于 03-19 15:46 174次阅读
    Supermicro率先发布<b class='flag-5'>NVIDIA</b> BlueField-4 STX存储<b class='flag-5'>服务器</b>,提升<b class='flag-5'>AI</b><b class='flag-5'>推理</b>性能

    边缘AI算力临界点:深度解析176TOPS香橙派AI Station的产业价值

    AGX Orin 150 TOPS+ 本地大模型推理、具身智能控制、多模态实时交互 迷你AI服务器 176TOPS 意味着OrangePi AI Station正式迈入 高端边缘
    发表于 03-10 14:19

    普通服务器电源与AI服务器电源的区别(上)

    引言服务器是数据中心的核心设备,其稳定运行依赖可靠的电源供应。随着AI技术的飞速发展,AI服务器大量涌现,与普通服务器在应
    的头像 发表于 01-12 09:31 1389次阅读
    普通<b class='flag-5'>服务器</b>电源与<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电源的区别(上)

    什么是企业服务器-计算

    企业服务器是指为企业提供的基于计算技术的服务器解决方案。华纳是一家计算
    的头像 发表于 12-29 17:57 1052次阅读

    对话|AI服务器电源对磁性元件提出的新需求

    编者按: 自ChatGPT、DeepSeek等大型AI模型应用爆发以来,市场对AI服务器需求激增,其配套电源的发展前景已成为行业共识。目前,I服务
    的头像 发表于 10-11 14:55 1240次阅读
    对话|<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电源对磁性元件提出的新<b class='flag-5'>需求</b>

    轻量服务器服务器区别:2025年终极选择指南

    资源、稳定计算性能及完整管理权限,支持垂直与水平扩展,适合企业级应用和高并发场景。选择取决于业务需求:轻量服务器适用于成本敏感型场景,标准
    的头像 发表于 09-01 13:58 1560次阅读
    轻量<b class='flag-5'>云</b><b class='flag-5'>服务器</b>和<b class='flag-5'>云</b><b class='flag-5'>服务器</b>区别:2025年终极选择指南

    恒讯科技分析:储存服务器搭建教程

    搭建存储服务器是一个相对复杂但极具实用性的项目,以下是一个简化的搭建教程,帮助你快速入门。 一、明确需求 在搭建存储服务器之前,首先需要
    的头像 发表于 07-07 11:07 1462次阅读

    NVIDIA计划打造全球首个工业AI平台

    NVIDIA 宣布,其正在为欧洲制造商构建全球首个工业 AI 。这家总部位于德国的 AI 工厂将配备 1 万个 GPU,包括通过 NVIDIA
    的头像 发表于 06-16 14:17 1611次阅读

    使用NVIDIA Triton和TensorRT-LLM部署TTS应用的最佳实践

    针对基于 Diffusion 和 LLM 类别的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能显著提升推理速度。在单张 NVIDIA Ada Love
    的头像 发表于 06-12 15:37 2061次阅读
    使用<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Triton</b>和TensorRT-LLM部署TTS应用的最佳实践

    HarmonyOS5服务技术分享--ArkTS开发Node环境

    气的方式探索这个功能,结尾还有实用总结和鼓励彩蛋哦~✨ ? 一、HarmonyOS函数开发:核心能力与价值 HarmonyOS的函数(Serverless)为开发者提供了​​无服务器架构​​的便捷
    发表于 05-22 17:21

    存储服务器租用的好处有哪些?

    随着企业数字化转型加速,存储服务器租用成为越来越多企业的首选方案。存储服务器租用的好处在于弹性灵活、成本可控、安全可靠,同时避免了传统服务器
    的头像 发表于 05-16 11:03 941次阅读

    基于RAKsmart服务器AI大模型实时推理方案设计

    面对高并发请求、严格的响应延迟要求及波动的业务负载,传统本地化部署的算力瓶颈愈发显著。RAKsmart服务器凭借其弹性计算资源池、分布式网络架构与全栈AI加速能力,为AI大模型实时
    的头像 发表于 05-13 10:33 715次阅读

    从云端到终端:RAKsmart服务器构筑AI平台智慧城市全栈解决方案

    传统服务器方案常面临算力分散、运维复杂、能效比低等问题,导致AI算法难以高效落地。而RAKsmart服务器凭借其技术创新与全栈服务能力,正在为AI
    的头像 发表于 05-09 09:47 748次阅读

    如何选择 边缘计算服务器

    延迟≤50ms; 视频分析、AI推理需求侧重‌算力密度‌,建议选择支持16TOPS以上算力且兼容TensorFlow/PyTorch框架的服务器(如RK3588芯片
    的头像 发表于 05-06 07:58 925次阅读
    如何选择 边缘计算<b class='flag-5'>服务器</b>

    企业使用NVIDIA NeMo微服务构建AI智能体平台

    已发布的 NeMo 微服务可与合作伙伴平台集成,作为创建 AI 智能体的构建模块,使用商业智能与强大的逻辑推理模型 (包括 NVIDIA L
    的头像 发表于 04-27 15:05 1477次阅读