0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

蔚来基于NVIDIA Triton搭建的推理服务平台

NVIDIA英伟达 来源:NVIDIA英伟达 作者:NVIDIA英伟达 2022-10-09 10:18 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

在近日举行的 GTC 大会上,蔚来 AI 平台负责人白宇利带来非常有价值的分享,他首次对外透露了蔚来自研的全栈式自动驾驶系统(NAD)的部署和开发情况,同时也将蔚来自动驾驶研发平台(NADP)这个神秘的“Peta Factory”带到了公众视野中。

据了解,NADP是服务于蔚来自动驾驶核心业务方向的研发平台,用于开发 NAD 功能。以“Peta”为名是因为每辆车每天能生成 55 petabit数据(1 petabit = 10^6 gigabit = 10^9 megabit = 10^15 bits),而 NADP 是所有流程、工作流、数据以及底层软硬件的组合。NADP 能够以一站式平台管理大量复杂的 AI 应用,并将模型开发效率提高 20 倍,从而缩短自动驾驶汽车的上市周期,开发出更新、更快的架构。

在模型训练、测试和部署的过程中,为了确保新改进能够切实地解决相应问题,且不会引发任何新问题, NADP 需要执行 10 万项推理任务,包括数据挖掘、仿真和回归测试。经过众多方案的对比和筛选,蔚来选用了NVIDIA Triton 推理服务器作为核心组件,构建了 NADP 的高性能推理服务。

正如白宇利在分享中提到:“我们基于 NVIDIA Triton 推理服务器构建了高性能推理服务。此服务非常适用于 NADP,并可轻松集成模型仓库、工作流、Jupyter、Prometheus 和许多其他组件,从而简化 AI 推理。Triton 让编排和扩展变得更轻松,还能将推理速度提高至 6 倍,并可节省 24% 的资源。”

蔚来基于 NVIDIA Triton 搭建的推理服务平台,在数据挖掘业务场景下,通过服务器端模型前处理和多模型 DAG 式编排,GPU 资源平均节省 24%;在部分核心 pipeline 上,吞吐能力提升为原来的 5 倍,整体时延降低为原来的 1/ 6。

Triton 在设计之初,就融入了云原生的设计思路,为后面逐步围绕 Triton 搭建完整的云原生平台性推理解决方案提供了相当大的便利。

作为 NADP 推理平台的核心组件,Triton 与 NADP 的各个组件形成了一套完整的推理一站式解决方案。从集成效率、高性能、易用性、高可用四方面,在 NADP 推理平台中提供助力。

目前,NADP 数据挖掘业务下的相关模型预测服务已经全部迁移至 Triton 推理服务器,为上百个模型提供了高吞吐预测能力。同时在某些任务基础上,通过自实现前处理算子、前后处理服务化、BLS 串联模型等手段,将一些模型任务合并起来,极大的提升了处理效率。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5496

    浏览量

    109097
  • 自动驾驶
    +关注

    关注

    791

    文章

    14671

    浏览量

    176556
  • 蔚来
    +关注

    关注

    1

    文章

    570

    浏览量

    15167

原文标题:成功案例:蔚来 NADP + NVIDIA Triton,搭建稳定高效的推理平台

文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    如何在NVIDIA Jetson AGX Thor上通过Docker高效部署vLLM推理服务

    继系统安装与环境配置后,本期我们将继续带大家深入 NVIDIA Jetson AGX Thor 的开发教程之旅,了解如何在 Jetson AGX Thor 上,通过 Docker 高效部署 vLLM 推理服务
    的头像 发表于 11-13 14:08 3058次阅读
    如何在<b class='flag-5'>NVIDIA</b> Jetson AGX Thor上通过Docker高效部署vLLM<b class='flag-5'>推理</b><b class='flag-5'>服务</b>

    NVIDIA TensorRT LLM 1.0推理框架正式上线

    TensorRT LLM 作为 NVIDIA 为大规模 LLM 推理打造的推理框架,核心目标是突破 NVIDIA 平台上的
    的头像 发表于 10-21 11:04 757次阅读

    NVIDIA Nemotron Nano 2推理模型发布

    NVIDIA 正式推出准确、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2。
    的头像 发表于 08-27 12:45 1404次阅读
    <b class='flag-5'>NVIDIA</b> Nemotron Nano 2<b class='flag-5'>推理</b>模型发布

    积算科技上线赤兔推理引擎服务,创新解锁FP8大模型算力

    北京2025年7月30日 /美通社/ -- 近日,北京积算科技有限公司(以下简称"积算科技")宣布其算力服务平台上线赤兔推理引擎。积算科技PowerFul-AI应用开发平台与赤兔合作,
    的头像 发表于 07-30 21:44 725次阅读

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    近日,NVIDIA 开源其物理 AI 平台 NVIDIA Cosmos 中的关键模型——NVIDIA Cosmos Reason-1-7B。这款先进的多模态大模型能够理解视频、进行物理
    的头像 发表于 07-09 10:17 562次阅读

    使用NVIDIA Triton和TensorRT-LLM部署TTS应用的最佳实践

    针对基于 Diffusion 和 LLM 类别的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能显著提升推理速度。在单张 NVIDIA Ada Love
    的头像 发表于 06-12 15:37 1302次阅读
    使用<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Triton</b>和TensorRT-LLM部署TTS应用的最佳实践

    企业使用NVIDIA NeMo微服务构建AI智能体平台

    已发布的 NeMo 微服务可与合作伙伴平台集成,作为创建 AI 智能体的构建模块,使用商业智能与强大的逻辑推理模型 (包括 NVIDIA Llama Nemotron) 处理更多任务。
    的头像 发表于 04-27 15:05 1001次阅读

    英伟达GTC2025亮点:Oracle与NVIDIA合作助力企业加速代理式AI推理

    Enterprise 软件平台之间的集成,将使 160 多个 AI 工具和 100 多个 NVIDIA NIM 微服务通过 OCI 控制台以原生方式提供。此外,Oracle 和 NVIDIA
    的头像 发表于 03-21 12:01 1179次阅读
    英伟达GTC2025亮点:Oracle与<b class='flag-5'>NVIDIA</b>合作助力企业加速代理式AI<b class='flag-5'>推理</b>

    英伟达GTC25亮点:NVIDIA Dynamo开源库加速并扩展AI推理模型

    Triton 推理服务器的后续产品,NVIDIA Dynamo 是一款全新的 AI 推理服务
    的头像 发表于 03-20 15:03 1077次阅读

    Oracle 与 NVIDIA 合作助力企业加速代理式 AI 推理

    ——Oracle 和 NVIDIA 今日宣布,NVIDIA 加速计算和推理软件与 Oracle 的 AI 基础设施以及生成式 AI 服务首次实现集成,以帮助全球企业组织加速创建代理式
    发表于 03-19 15:24 470次阅读
    Oracle 与 <b class='flag-5'>NVIDIA</b> 合作助力企业加速代理式 AI <b class='flag-5'>推理</b>

    能源与长城汽车达成充电服务合作

    2月14日,武汉能源有限公司(“能源”)与长城汽车股份有限公司(“长城汽车”)正式达成充电服务合作。
    的头像 发表于 02-14 11:50 866次阅读

    使用NVIDIA推理平台提高AI推理性能

    NVIDIA推理平台提高了 AI 推理性能,为零售、电信等行业节省了数百万美元。
    的头像 发表于 02-08 09:59 1327次阅读
    使用<b class='flag-5'>NVIDIA</b><b class='flag-5'>推理</b><b class='flag-5'>平台</b>提高AI<b class='flag-5'>推理</b>性能

    能源充电网络向极狐汽车开放

    1月17日,武汉能源有限公司(“能源”)与北京蓝谷极狐汽车科技有限公司(“极狐汽车”)正式达成充电服务合作。
    的头像 发表于 01-17 17:20 594次阅读

    Triton编译器在机器学习中的应用

    1. Triton编译器概述 Triton编译器是NVIDIA Triton推理服务
    的头像 发表于 12-24 18:13 1629次阅读

    Triton编译器功能介绍 Triton编译器使用教程

    Triton 是一个开源的编译器前端,它支持多种编程语言,包括 C、C++、Fortran 和 Ada。Triton 旨在提供一个可扩展和可定制的编译器框架,允许开发者添加新的编程语言特性和优化技术
    的头像 发表于 12-24 17:23 2702次阅读