0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

X3派基于PaddlePaddle的推理模型部署

地瓜机器人 2022-12-14 15:56 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

一、目标

本次工作的目标是在旭日X3派上部署PaddlePaddle的开源模型,至于PaddlePaddle模型转换,已有大佬写过很赞的教程,自我感觉不能超越,于是本文不再提及。

飞桨(PaddlePaddle)是集深度学习核心框架、工具组件和服务平台为一体的技术先进、功能完备的开源深度学习平台,已被中国企业广泛使用,深度契合企业应用需求,拥有活跃的开发者社区生态。提供丰富的官方支持模型集合,并推出全类型的高性能部署和集成方案供开发者使用。

二、环境准备

1、python环境

旭日X3派的官方img支持的是python3.8,这个跟PaddlePaddle要求的3.6版本不同,因为PaddlePaddle SDK使用的tensor模块等依赖python3.6,所以要在X3派系统中使用python3.6。网上很多种方法,譬如通过pyenv、anaconda等python版本管理工具进行python版本切换,因为在实际使用中可以指定使用的python版本,为什么不能再装个python3.6呢?需要python3.8的时候敲python3,需要python3.6的时候敲python3.6,感觉不错。

sudo apt-get install software-properties-common -y sudo add-apt-repository ppa:deadsnakes/ppa sudo apt-get update sudo apt-get install python3.6 -y sudo apt-get install libpython3.6 -y sudo apt-get install python3.6-dev -y sudo apt-get install python3.6-distutils -y

一系列命令敲下来,python3.6环境已经按照完成,直接使用即可。

1.png

2、SDK下载

直接在官网(EasyEdge端计算模型生成平台)下载PaddlePaddle SDK,选择需要的SDK即可,因为是要部署在X3派上,所以选择了 操作系统Linux,且部署芯片为通用ARM芯片的模型,这次我选择的是PPLCNetV2。

PPLCNet是百度团队设计的轻量高性能网络PP-LCNet,所提方案在图像分类任务上取得了比ShuffleNetV2、MobileNetV2、MobileNetV3以及GhostNet更优的延迟-精度均衡。

PPLCNetV2当然比PPLCNetV1牛逼了,一会试试图像分类功能。

三、模型部署

1、PaddlePaddle安装

直接使用如下命令安装PaddlePaddle:

python3.6 -m pip install http://aipe-easyedge-public.bj.bcebos.com/easydeploy/paddlelite-2.11-cp36-cp36m-linux_aarch64.whl

记得一定要用python3.6…

2、安装WHL包

将2.2节下载的SDK包解压缩,传输至X3派,首先安装python目录下(当然也可以选择C++,python直接运行了,方便)的BaiduAI_EasyEdge_SDK-1.3.1-cp36-cp36m-linux_aarch64.whl包,记得用python3.6,中间可能会根据系统的情况,下载安装numpy,opencv-python等,耐心等待即可,直到安装成功。

2.png

四、预测图像

直接在系统上运行的命令格式如下,记得使用python3.6:

python3.6 demo_x86_cpu.py {模型RES文件夹}{测试图片路径}

1、鸭子

结果如下:

root@ubuntu:~/EasyEdge-Linux-arm/python/infer_demo# python3.6 demo_armv8_cpu.py ../../RES /root/ducks.jpg 2022-09-17 00:36:30 INFO [EasyEdge] [demo_armv8_cpu.py:38] 548210040848: Init paddlelite engine... Loading topology data from ../../RES/model Loading params data from ../../RES/params 1. Model is successfully loaded! 2022-09-17 00:36:31 INFO [EasyEdge] [demo_armv8_cpu.py:38] 548210040848: Paddlelite engine version: v2.11 infer done! {'confidence': 0.36856314539909363, 'index': 97, 'label': 'n01847000 drake'}

2、蚂蚁

测试结果,ant, emmet, pismire都是蚂蚁:

root@ubuntu:~/EasyEdge-Linux-arm/python/infer_demo# python3.6 demo_armv8_cpu.py ../../RES /root/ants.jpg 2022-09-17 00:37:40 INFO [EasyEdge] [demo_armv8_cpu.py:38] 548581892112: Init paddlelite engine... Loading topology data from ../../RES/model Loading params data from ../../RES/params 1. Model is successfully loaded! 2022-09-17 00:37:41 INFO [EasyEdge] [demo_armv8_cpu.py:38] 548581892112: Paddlelite engine version: v2.11 infer done! {'confidence': 0.9655985832214355, 'index': 310, 'label': 'n02219486 ant, emmet, pismire'}

本文转自地平线开发者社区
原作者:大菠萝Alpha

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 嵌入式
    +关注

    关注

    5209

    文章

    20679

    浏览量

    337304
  • Linux
    +关注

    关注

    88

    文章

    11821

    浏览量

    219595
  • 模型
    +关注

    关注

    1

    文章

    3831

    浏览量

    52283
  • python
    +关注

    关注

    58

    文章

    4889

    浏览量

    90326
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    商汤科技正式开源多模态自主推理模型SenseNova-MARS

    今日,商汤正式开源多模态自主推理模型 SenseNova-MARS(8B/32B 双版本),其在多模态搜索与推理的核心基准测试中以 69.74 分超越Gemini-3-Pro(69.06 分)、GPT-5.2(67.64 分)。
    的头像 发表于 01-30 10:13 798次阅读
    商汤科技正式开源多模态自主<b class='flag-5'>推理模型</b>SenseNova-MARS

    阿里巴巴发布通义千问旗舰推理模型Qwen3-Max-Thinking

    今天,我们正式发布千问旗舰推理模型Qwen3-Max-Thinking,创下数项权威评测全球新纪录。
    的头像 发表于 01-27 15:47 619次阅读
    阿里巴巴发布通义千问旗舰<b class='flag-5'>推理模型</b>Qwen<b class='flag-5'>3</b>-Max-Thinking

    LLM推理模型是如何推理的?

    这篇文章《(How)DoReasoningModelsReason?》对当前大型推理模型(LRM)进行了深刻的剖析,超越了表面的性能宣传,直指其技术本质和核心局限。以下是基于原文的详细技术原理、关键
    的头像 发表于 01-19 15:33 726次阅读
    LLM<b class='flag-5'>推理模型</b>是如何<b class='flag-5'>推理</b>的?

    AI端侧部署开发(SC171开发套件V3)2026版

    AI端侧部署开发(SC171开发套件V3)2026版 序列 课程名称 视频课程时长 视频课程链接 课件链接 工程源码 1 Fibo AI Stack模型转化指南 27分19秒 https
    发表于 01-15 10:31

    Termux手机摄像头采集图像/视频流 部署 YOLO 模型推理

    Termux手机摄像头采集图像/视频流 部署 YOLO 模型推理
    的头像 发表于 12-14 07:26 3353次阅读

    什么是AI模型推理能力

    NVIDIA 的数据工厂团队为 NVIDIA Cosmos Reason 等 AI 模型奠定了基础,该模型近日在 Hugging Face 的物理推理模型排行榜中位列榜首。
    的头像 发表于 09-23 15:19 1506次阅读

    如果大模型是一片星空,谁是北斗?

    文心X1.1,破解推理模型的发展瓶颈
    的头像 发表于 09-10 18:02 3685次阅读
    如果大<b class='flag-5'>模型</b>是一片星空,谁是北斗?

    NVIDIA Nemotron Nano 2推理模型发布

    NVIDIA 正式推出准确、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2。
    的头像 发表于 08-27 12:45 2032次阅读
    NVIDIA Nemotron Nano 2<b class='flag-5'>推理模型</b>发布

    奇瑞风云X3系列双车上市

    8月16日,奇瑞汽车旗下风云品牌全新方盒子产品序列——风云X3与风云X3 PLUS正式宣告上市。风云X3系列基于iCAR 03系列焕新升级而来,在造型设计、动力性能、智能科技、功能配置及工艺品质等维度实现全方位跃升。
    的头像 发表于 08-19 11:48 1283次阅读

    澎峰科技完成OpenAI最新开源推理模型适配

    澎峰科技现已完成 OpenAI 最新开源推理模型 gpt-oss-20b 在 DeepFusion 大模型一体机上的原生适配与优化,用户可一键启用这颗“小而强悍”的新引擎,在本地享受企业级 AI 生产力!
    的头像 发表于 08-14 11:34 1580次阅读

    利用NVIDIA推理模型构建AI智能体

    开放式推理模型能够更快、更广泛地进行思考,为客户服务、网络安全、制造、物流和机器人等领域的 AI 智能体生成更明智的结果。
    的头像 发表于 08-13 14:32 1784次阅读
    利用NVIDIA<b class='flag-5'>推理模型</b>构建AI智能体

    基于米尔瑞芯微RK3576开发板部署运行TinyMaix:超轻量级推理框架

    推理库,可以让你在任意低资源MCU上运行轻量级深度学习模型。关键特性核心代码少于 400行(tm_layers.c+tm_model.c+arch_cpu.h), 代码段(.text)少于3KB 低
    发表于 07-25 16:35

    如何在魔搭社区使用TensorRT-LLM加速优化Qwen3系列模型推理部署

    TensorRT-LLM 作为 NVIDIA 专为 LLM 推理部署加速优化的开源库,可帮助开发者快速利用最新 LLM 完成应用原型验证与产品部署
    的头像 发表于 07-04 14:38 2460次阅读

    模型推理显存和计算量估计方法研究

    随着人工智能技术的飞速发展,深度学习大模型在各个领域得到了广泛应用。然而,大模型推理过程对显存和计算资源的需求较高,给实际应用带来了挑战。为了解决这一问题,本文将探讨大模型
    发表于 07-03 19:43

    边缘计算中的机器学习:基于 Linux 系统的实时推理模型部署与工业集成!

    你好,旅行者!欢迎来到Medium的这一角落。在本文中,我们将把一个机器学习模型(神经网络)部署到边缘设备上,利用从ModbusTCP寄存器获取的实时数据来预测一台复古音频放大器的当前健康状况。你将
    的头像 发表于 06-11 17:22 1168次阅读
    边缘计算中的机器学习:基于 Linux 系统的实时<b class='flag-5'>推理模型</b><b class='flag-5'>部署</b>与工业集成!