0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

X3派AI算法推理快速入门

地瓜机器人 2022-07-18 14:24 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

0 环境安装

在进行AI算法开发之前请参考X3派用户手册完成系统安装及配置,此时X3派上已默认安装好了地平线Python版本AI推理引擎(hobot_dnn)及其配套依赖环境。hobot_dnn提供了ModelpyDNNTensor、TensorProperties三个类和load接口。您可通过如下方式获取hobot_dnn的基本信息:

-------------------------------------------------------------------------------------------------------------------------------

python3
>>> from hobot_dnn import pyeasy_dnn as dnn
>>> dir(dnn)
['Model', 'TensorProperties', '__doc__', '__file__', '__loader__', '__name__', '__package__', '__spec__', 'load', 'pyDNNTensor']

-------------------------------------------------------------------------------------------------------------------------------

AI推理引擎的更新可参考如下方式(出于系统安全、稳定性的考虑,建议统一通过APT命令更新X3派板级开发包):

-------------------------------------------------------------------------------------------------------------------------------

#更新package列表
sudo apt update
#升级所有已安装的软件包到最新版本
sudo apt full-upgrade
#清除缓存文件(非必须)
sudo apt clean
#重启设备
sudo reboot

-------------------------------------------------------------------------------------------------------------------------------

1 推理接口介绍

1.1 Model

AI算法模型类,描述模型的名称,输入、输出数据属性信息,forward 方法用来完成算法的推理。

-------------------------------------------------------------------------------------------------------------------------------

class hobot_dnn.pyeasy_dnn.Model
'''
Parameters
1、name (string):模型名称
2、inputs (tuple(hobot_dnn.pyeasy_dnn.pyDNNTensor)):模型的输入tensor
3、outputs (tuple(hobot_dnn.pyeasy_dnn.pyDNNTensor)):模型的输出tensor
4、forward (args &args, kwargs &kwargs):模型推理函数接口,输入模型推理所必要的参数,返回模型推理结果
parameters:
input_tensor:输入数据
core_id (int):模型推理的core id,可为0,1,2,默认为0表示任意核推理
priority (int):当前模型推理任务的优先级,范围[0~255],越大优先级越高
'''

-------------------------------------------------------------------------------------------------------------------------------

其中,forward方法的input_tensor支持三种格式输入:

poYBAGLUxLSAc49LAAEU1HRQngQ810.png

forward方法的返回值为模型推理结果,有如下两种情况:

pYYBAGLUxLSAIOqJAADJF3iDWRc720.png

resizer模型指在模型转换时input_source设置为“resizer”编译生成的模型,相关配置方式可参考社区X3 用户手册。resizer模型推理时,hobot_dnn会先使用ROI从输入数据中抠图后resize到模型输入大小再送入模型进行推理。
*目前resizer模式暂只支持单输入的nv12/nv12_bt601模型。

1.2 pyDNNTensor

AI 算法输入、输出 tensor 类

-------------------------------------------------------------------------------------------------------------------------------

class hobot_dnn.pyeasy_dnn.pyDNNTensor
'''
Parameters:
1、properties (TensorProperties):tensor的属性,详细参见本文1.3节
2、buffer (numpy):tensor中的数据,数据访问方式同numpy
3、name (string):tensor的名称
'''

-------------------------------------------------------------------------------------------------------------------------------

1.3 TensorProperties

AI 算法输入/输出 tensor 的属性类

-------------------------------------------------------------------------------------------------------------------------------

class hobot_dnn.pyeasy_dnn.TensorProperties
'''
Parameters:
1、tensor_type (string):tensor的数据类型,如:NV12、BGR、float32等
2、dtype (string):数据的存储类型,同numpy数据类型,如:int8、uint8、float32等
3、layout (string):数据排布格式,NHWC或者NCHW
4、shape (tuple):数据的shape信息,例如:(1,3,224,224)
'''

-------------------------------------------------------------------------------------------------------------------------------

1.4 load

load接口用于加载模型

-------------------------------------------------------------------------------------------------------------------------------

hobot_dnn.pyeasy_dnn.load(model_file)
'''
接口支持两种模型加载方式:
1、输入模型的文件路径,加载单个模型,或者单个pack模型
model_file = "/userdata/single_model.bin"
models = hobot_dnn.pyeasy_dnn.load(model_file)
2、输入模型的文件列表,加载多个模型
model_file = ["model1.bin", "model2.bin"]
models = hobot_dnn.pyeasy_dnn.load(model_file)
接口返回hobot_dnn.pyeasy_dnn.Model类型的tuple列表
'''

-------------------------------------------------------------------------------------------------------------------------------

2 快速上手示例

X3派配套AI推理示例默认安装在/app/ai_inference目录下,包含如下示例:

-------------------------------------------------------------------------------------------------------------------------------

|-- 01_basic_sample # 从本地读取图片并完成mobilenetv1分类模型推理
|-- 02_usb_camera_sample # 从USB camera获取视频数据并完成FCOS检测模型推理
|-- 03_mipi_camera_sample # 从MIPI camera获取视频数据并完成FCOS检测模型推理
|-- 05_web_display_camera_sample # 基于MIPI Camera的FCOS目标检测及web端展示
|-- 06_yolov3_sample # 从本地读取图片并完成Yolov3检测模型推理
|-- 07_yolov5_sample # 从本地读取图片并完成Yolov5检测模型推理
`-- models

-------------------------------------------------------------------------------------------------------------------------------

本节将以01_basic_sample为例,为大家展示如何使用hobot_dnn完成模型推理。运行以下示例您需要准备编译好的混合异构模型mobilenetv1_224x224_nv12.bin(存放于/app/ai_inference/models路径下),以及一张图片zebra_cls.jpg(存放于01_basic_sample文件夹下)。

-------------------------------------------------------------------------------------------------------------------------------

from hobot_dnn import pyeasy_dnn as dnn
import numpy as np
import cv2

# 查看模型输入输出节点的信息
def print_properties(pro):
print("tensor type:", pro.tensor_type)
print("data type:", pro.dtype)
print("layout:", pro.layout)
print("shape:", pro.shape)

# 依据模型input_type_rt决定是否需要进行数据格式转换(本实例所用模型为nv12输入)
def bgr2nv12_opencv(image):
height, width = image.shape[0], image.shape[1]
area = height * width
yuv420p = cv2.cvtColor(image, cv2.COLOR_BGR2YUV_I420).reshape((area * 3 // 2,))
y = yuv420p[:area]
uv_planar = yuv420p[area:].reshape((2, area // 4))
uv_packed = uv_planar.transpose((1, 0)).reshape((area // 2,))

nv12 = np.zeros_like(yuv420p)
nv12[:height * width] = y
nv12[height * width:] = uv_packed
return nv12

# 1.加载模型
models = dnn.load('../models/mobilenetv1_224x224_nv12.bin')

# 2.查看模型输入输出节点的信息
for input in models[0].inputs:
print_properties(input.properties)
for output in models[0].outputs:
print_properties(output.properties)

# 3.准备输入数据
# 打开图片
img_file = cv2.imread('./zebra_cls.jpg')
# 把图片缩放到模型的输入尺寸
h, w = models[0].inputs[0].properties.shape[2], models[0].inputs[0].properties.shape[3]
resized_data = cv2.resize(img_file, (w, h), interpolation=cv2.INTER_AREA)
nv12_data = bgr2nv12_opencv(resized_data)

# 4.模型推理
outputs = models[0].forward(nv12_data)

# 5.后处理
np.argmax(outputs[0].buffer)
print("cls id: %d Confidence: %f" % (np.argmax(outputs[0].buffer), outputs[0].buffer[0][np.argmax(outputs[0].buffer)]))

-------------------------------------------------------------------------------------------------------------------------------

运行上述示例,即可在终端查看到如下信息:

poYBAGLUxLiAW8JhAAZI3C0maJw059.png

本文转自地平线开发者社区

原作者:颜值即正义

原链接:https://developer.horizon.ai/forumDetail/98129467158916308

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人工智能
    +关注

    关注

    1813

    文章

    49741

    浏览量

    261563
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    半年参与3万辆宝马X3生产,人形机器人“进厂打工”真成了

    了其人形机器人“进厂打工”的最新成果。   Figure 02:半年参与3万辆宝马X3生产,进入退役阶段   根据Figure AI的说法,在过去的六个月内,其第二代人形机器人Figure 02已经在宝马集团斯帕坦堡工厂参与生产
    的头像 发表于 11-24 08:25 7448次阅读
    半年参与<b class='flag-5'>3</b>万辆宝马<b class='flag-5'>X3</b>生产,人形机器人“进厂打工”真成了

    华为破解HBM依赖!AI推理黑科技UCM上线,9月正式开源

    8月12日,在2025金融AI推理应用落地与发展论坛上,华为公司副总裁、数据存储产品线总裁周越峰宣布,华为此次和银联联合创新,推出AI推理创新技术UCM(
    的头像 发表于 08-13 08:58 9707次阅读
    华为破解HBM依赖!<b class='flag-5'>AI</b><b class='flag-5'>推理</b>黑科技UCM上线,9月正式开源

    AI推理的存储,看好SRAM?

    电子发烧友网报道(文/黄晶晶)近几年,生成式AI引领行业变革,AI训练率先崛起,带动高带宽内存HBM一飞冲天。但我们知道AI推理的广泛应用才能推动A
    的头像 发表于 03-03 08:51 2420次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>的存储,看好SRAM?

    安谋发布“周易”X3 NPU,破局AI算力,智绘未来蓝图

    2025年11月13日,国内领先的芯片IP设计与服务提供商安谋科技Arm China,正式揭开了新一代NPU IP“周易”X3的神秘面纱。通过其创新的专为大模型设计的DSP+DSA混合架构与软硬协同
    的头像 发表于 11-17 11:47 134次阅读
    安谋发布“周易”<b class='flag-5'>X3</b> NPU,破局<b class='flag-5'>AI</b>算力,智绘未来蓝图

    信息流全面转向AI推荐!马斯克称X本周内将发布AI算法更新

    X 平台将于本周内发布更新后的“新”算法,据其表示,新算法更新后,X 将实现完全的 AI 推荐。
    的头像 发表于 10-21 10:19 235次阅读
    信息流全面转向<b class='flag-5'>AI</b>推荐!马斯克称<b class='flag-5'>X</b>本周内将发布<b class='flag-5'>AI</b><b class='flag-5'>算法</b>更新

    奇瑞风云X3系列双车上市

    8月16日,奇瑞汽车旗下风云品牌全新方盒子产品序列——风云X3与风云X3 PLUS正式宣告上市。风云X3系列基于iCAR 03系列焕新升级而来,在造型设计、动力性能、智能科技、功能配置及工艺品质等维度实现全方位跃升。
    的头像 发表于 08-19 11:48 840次阅读

    信而泰×DeepSeek:AI推理引擎驱动网络智能诊断迈向 “自愈”时代

    故障)”的自动化推理链条。3.预测性防御:智能基线洞察,防患于未然l 基于先进的时序分解算法,为每个关键业务终端/链路动态构建多维性能基线(吞吐量、时延、丢包率)。l 主动预警潜在风险,如带宽瓶颈
    发表于 07-16 15:29

    韵乐Vinal X3/X5卡拉OK音频处理器调音软件简介

    韵乐Vinal X3/X5卡拉OK音频处理器调音软件软件简介韵乐Vinal X3/X5调音软件具有音箱处理器功能的卡拉ok效果器每个功能部分都独立可调且有相应的PC界面可直观调节易于操
    发表于 05-16 15:33 1次下载

    RDK X3 带飞的智能护理系统:让机器人秒变贴心小棉袄

    济往开来团队带着超燃黑科技来了!基于 RDK X3 开发的老年智能监控系统,跌倒秒报警、手势一键呼叫、还能陪唠嗑!最绝的是 开源代码直接甩链接 ,技术党狂喜!
    的头像 发表于 05-09 21:53 581次阅读
    RDK <b class='flag-5'>X3</b> 带飞的智能护理系统:让机器人秒变贴心小棉袄

    AI端侧部署开发(SC171开发套件V3

    /27894.html *附件:文档:Fibo AI Stack模型转化指南------VMware虚拟机环境操作.pdf 3 Fibo AI Stack模型推理指南 *附件:文
    发表于 04-16 18:30

    当我问DeepSeek AI爆发时代的FPGA是否重要?答案是......

    资源浪费。例如,在深度学习模型推理阶段,FPGA可以针对特定的神经网络结构进行硬件加速,提高推理速度。 3.支持边缘计算与实时应用 • 边缘计算:随着物联网的发展,越来越多的AI任务需
    发表于 02-19 13:55

    “你的钱来了”:财神1号,RDK X3驱动,自动捡钱不手软!

    采用 RDK X3 打造无情的捡钱机器,每天8亿纸币掉在路面上,财神1号帮你捡个够!
    的头像 发表于 02-18 11:15 940次阅读
    “你的钱来了”:财神1号,RDK <b class='flag-5'>X3</b>驱动,自动捡钱不手软!

    使用NVIDIA推理平台提高AI推理性能

    NVIDIA推理平台提高了 AI 推理性能,为零售、电信等行业节省了数百万美元。
    的头像 发表于 02-08 09:59 1327次阅读
    使用NVIDIA<b class='flag-5'>推理</b>平台提高<b class='flag-5'>AI</b><b class='flag-5'>推理</b>性能

    OpenAI即将推出o3 mini推理AI模型

    近日,OpenAI首席执行官Sam Altman在社交媒体平台X上发表了一篇引人关注的文章。在文章中,他透露了一个重要信息:OpenAI已经成功完成了全新推理AI模型o3 mini版本
    的头像 发表于 01-20 10:54 785次阅读

    Cadence推出Palladium Z3与Protium X3系统

    楷登电子(Cadence)公司近日宣布,正式推出新一代Cadence® Palladium® Z3 Emulation和Protium™ X3 FPGA原型验证系统。这一组合标志着数字孪生
    的头像 发表于 01-07 13:48 1724次阅读