0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

RK3576 Yolov11训练部署教程

EASY EAI灵眸科技 来源:EASY EAI灵眸科技 2025-04-03 09:35 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

1. Yolo11简介

YOLO11 系列是 YOLO 家族中最先进的 (SOTA)、最轻量级、最高效的模型,其表现优于其前辈。它由 Ultralytics 创建,该组织发布了 YOLOv8,这是迄今为止最稳定、使用最广泛的 YOLO 变体。YOLO11 将延续 YOLO 系列的传奇。

本教程针对目标检测算法yolo11的训练和部署到EASY-EAI-Orin-nano(RK3576)进行说明,而数据标注方法可以参考我们往期的文章。

5e4f495a-0eae-11f0-9310-92fbcf53809c.png

2. Yolo11模型训练

Yolov11训练代码在导出部分对比原版会有一些修改,建议下载我们的训练代码。

2.1 数据集准备

在开始yolo11训练前,先准备好待训练数据,如VOC2007,下载链接:

http://host.robots.ox.ac.uk/pascal/VOC/voc2007/index.html

然后将VOC2007数据分成训练集和测试集两个目录,如下图示意:

5e66d0e8-0eae-11f0-9310-92fbcf53809c.png

2.2 Voc转Yolo

数据准备好后,使用data/voc_2_yolo.py脚本将Voc数据格式转成Yolo数据格式。转换完成后的数据存储在原数据同级目录的yolo_data下,如下图示意:

5e8151f2-0eae-11f0-9310-92fbcf53809c.png

2.3 训练参数配置

数据转换完成后,在配置模型的训练参数:data.yaml,default.yaml,yolo11.yaml.

5e9ceab6-0eae-11f0-9310-92fbcf53809c.png

其中:

data.yaml:为待训练数据和验证数据的路径,以及类别数和类别名称;

default.yaml:为yolo11训练参数,可自行调整模型训练的参数;

Yolo11.yaml:为yolo11模型结构,在模型训练时,你需要修改类别数。

更多关于yolo11信息可参考:

https://blog.csdn.net/qq_45972324/article/details/143892222

2.4 模型训练

完成上述步骤后,就可以开始训练模型了,打开train.py脚本,输入data.yaml,default.yaml,yolo11.yaml路径,如下代码段所示:

fromultralyticsimportYOLO
importos


os.environ["KMP_DUPLICATE_LIB_OK"] ="TRUE"# 程序报OMP: Hint This means...错误时使用


if__name__ =='__main__':
  cfg ="./demo/voc2007/cfg/default.yaml"
  data ='./demo/voc2007/cfg/data.yaml'
  weight ="./demo/voc2007/cfg/yolo11.yaml"# pt 或 yolovx.yaml
  model = YOLO(weight)


  results = model.train(
    data=data,
    cfg=cfg
  )

执行train.py训练脚本,开始模型训练,如下示意图:

pythontrain.py
5eac6a40-0eae-11f0-9310-92fbcf53809c.png

注意:训练过程仅是为了演示流程,接下来模型预测和模型转换的都是yolov11默认的80类的模型。

2.5 PC端预测模型预测

训练完毕后,在default.yaml文件配置的project目录下保存训练过程,经验证集测试的最好结果的模型。同时可以执行模型预测,初步评估模型的效果。打开predict.py脚本,配置好模型地址和待检测图片,如下代码段所示:

if__name__ =='__main__':
  random.seed(0)
  device_ ="cpu"
  imgsz = (640,640)
  model_path ="./demo/weights/yolo11s.pt"
  img_path ="./demo/images/bus.jpg"
  is_dir = os.path.isdir(img_path)
  device = select_device(device_)
  model = YOLO(model_path)
 # 图片预处理
 ifis_dir:
    filenames = os.listdir(img_path)
   foridx, fileinenumerate(filenames):
      img_file = os.path.join(img_path, file)
      im = cv2.imread(img_file) # uint8 numpy array
      pre_img, ratio, padding = preprocess(im, device, imgsz)
     # 模型预测
     # pred = model.predict(pre_img, augment=False)[0]
     # im = draw_result(im, pred, ratio, padding)
      pred = model.predict(im, augment=False)[0]
      im = draw_result(im, pred)
      cv2.imshow("dst", im)
      cv2.waitKey()
 else:
    im = cv2.imread(img_path) # uint8 numpy array
    pre_img, ratio, padding = preprocess(im, device, imgsz)
   # 模型预测
   # pred = model.predict(pre_img, augment=False)[0]
   # im = draw_result(im, pred, ratio, padding)
    pred = model.predict(im, augment=False)[0]
    im = draw_result(im, pred)
    cv2.imshow("dst", im)
    cv2.waitKey()

执行脚本:

pythonpredict.py

运行脚本结果:

2.6 PT模型转ONNX

在PC端执行export.py将pt模型转成onnx,如下代码段所示:

from ultralytics import YOLO


if__name__ =='__main__':
  format ='rknn'#'torchscript','onnx','openvino','engine','coreml','saved_model','pb','tflite','edgetpu','tfjs','paddle','ncnn'
  weight ="./demo/weights/yolo11s.pt"# pt 或 yolovx.yaml
  model = YOLO(weight)
  results = model.export(format = format)

3. rknn-toolkit模型转换

3.1 rknn-toolkit模型转换环境搭建

onnx模型需要转换为rknn模型才能在EASY-EAI-Orin-nano运行,所以需要先搭建rknn-toolkit模型转换工具的环境。当然tensorflow、tensroflow lite、caffe、darknet等也是通过类似的方法进行模型转换,只是本教程onnx为例。

3.1.1 概述

模型转换环境搭建流程如下所示:

5f0d6412-0eae-11f0-9310-92fbcf53809c.png

3.1.2 下载模型转换工具

为了保证模型转换工具顺利运行,请下载网盘里“06.AI算法开发/01.rknn-toolkit2模型转换工具/rknn-toolkit2-v2.3.0/docker/rknn-toolkit2-v2.3.0-cp38-docker.tar.gz”。

3.1.3 把工具移到ubuntu20.04

把下载完成的docker镜像移到我司的虚拟机ubuntu20.04的rknn-toolkit2目录,如下图所示:

5f242c06-0eae-11f0-9310-92fbcf53809c.png

3.1.4 运行模型转换工具环境

在该目录打开终端:

5f35e31a-0eae-11f0-9310-92fbcf53809c.png

执行以下指令加载模型转换工具docker镜像:

dockerload --input rknn-toolkit2-v2.3.0-cp38-docker.tar.gz

执行以下指令进入镜像bash环境:

docker run-t-i--privileged-v/dev/bus/usb:/dev/bus/usb rknn-toolkit2:2.3.0-cp38/bin/bash

现象如下图所示:

5f49fff8-0eae-11f0-9310-92fbcf53809c.png

输入“python”加载python相关库,尝试加载rknn库,如下图环境测试成功:

5f5ed89c-0eae-11f0-9310-92fbcf53809c.png

至此,模型转换工具环境搭建完成。

4. 模型转换为RKNN

EASY EAI Orin-nano支持.rknn后缀的模型的评估及运行,对于常见的tensorflow、tensroflow lite、caffe、darknet、onnx和Pytorch模型都可以通过我们提供的 toolkit 工具将其转换至 rknn 模型,而对于其他框架训练出来的模型,也可以先将其转至 onnx 模型再转换为 rknn 模型。模型转换操作流程如下图所示:

5f738ae4-0eae-11f0-9310-92fbcf53809c.png

4.1 模型转换Demo下载

把 yolov11_model_convert.tar.bz2和quant_dataset.zip解压到虚拟机,如下图所示:

5f8b610a-0eae-11f0-9310-92fbcf53809c.png

4.2 进入模型转换工具docker环境

执行以下指令把工作区域映射进docker镜像,其中/home/developer/rknn-toolkit2/model_convert为工作区域,/test为映射到docker镜像,/dev/bus/usb:/dev/bus/usb为映射usb到docker镜像:

docker run -t -i --privileged -v /dev/bus/usb:/dev/bus/usb -v /home/developer/rknn-toolkit2/model_convert:/test
rknn-toolkit2:2.3.0-cp38 /bin/bash

执行成功如下图所示:

5fa6e88a-0eae-11f0-9310-92fbcf53809c.png

4.3 模型转换操作说明

4.3.1 模型转换Demo目录结构

模型转换测试Demo由yolov11_model_convert和quant_dataset组成。yolov11_model_convert存放软件脚本,quant_dataset存放量化模型所需的数据。如下图所示:

5fbcf6ca-0eae-11f0-9310-92fbcf53809c.png

Yolov11_model_convert文件夹存放以下内容,如下图所示:

5fd71c12-0eae-11f0-9310-92fbcf53809c.png

4.3.2 生成量化图片列表

在docker环境切换到模型转换工作目录:

cd/test/yolov11_model_convert

如下图所示:

5fe69782-0eae-11f0-9310-92fbcf53809c.png

执行gen_list.py生成量化图片列表:

pythongen_list.py

命令行现象如下图所示:

5ff82b82-0eae-11f0-9310-92fbcf53809c.png

生成“量化图片列表”如下文件夹所示:

6009725c-0eae-11f0-9310-92fbcf53809c.png

4.3.3 onnx模型转换为rknn模型

rknn_convert.py脚本默认进行int8量化操作,脚本代码清单如下所示:

importsys
fromrknn.apiimportRKNN


ONNX_MODEL ='yolov11s.onnx'
DATASET ='./pic_path.txt'
RKNN_MODEL ='./yolov11s_rk3576.rknn'
QUANTIZE_ON =True




if__name__ =='__main__':


 # Create RKNN object
  rknn = RKNN(verbose=False)


 # Pre-process config
 print('--> Config model')
  rknn.config(mean_values=[[0,0,0]], std_values=[
          [255,255,255]], target_platform='rk3576')
 print('done')


 # Load model
 print('--> Loading model')
  ret = rknn.load_onnx(model=ONNX_MODEL)
 ifret !=0:
   print('Load model failed!')
    exit(ret)
 print('done')


 # Build model
 print('--> Building model')
  ret = rknn.build(do_quantization=QUANTIZE_ON, dataset=DATASET)
 ifret !=0:
   print('Build model failed!')
    exit(ret)
 print('done')


 # Export rknn model
 print('--> Export rknn model')
  ret = rknn.export_rknn(RKNN_MODEL)
 ifret !=0:
   print('Export rknn model failed!')
    exit(ret)
 print('done')


 # Release
  rknn.release()

把onnx模型yolov11s.onnx放到yolov11_model_convert目录(后续用户使用自己的模型的时候,替换掉对应的onnx即可),并执行rknn_convert.py脚本进行模型转换:

pythonrknn_convert.py

生成模型如下图所示,此模型可以在rknn环境和EASY EAI Orin-nano环境运行:

60236766-0eae-11f0-9310-92fbcf53809c.png

5. 模型部署示例

5.1 模型部署示例介绍

本小节展示yolo11模型的在EASY EAI Orin-nano的部署过程,本章章节使用的yolo11s.rknn模型的是由Ultralytics 官方提供的yolo11s.pt转换而来。

5.2 源码下载以及例程编译

下载yolo11 C Demo示例文件。

下载程序包移至ubuntu环境后,执行以下指令解压:

tar-xvf yolov11_detect_C_demo.tar.bz2

下载解压后如下图所示:

604284fc-0eae-11f0-9310-92fbcf53809c.png

通过adb接口连接EASY-EAI-Orin-nano,,连接方式如下图所示:

605a5866-0eae-11f0-9310-92fbcf53809c.png

接下来需要通过adb把源码传输到板卡上,先切换目录然后执行以下指令:

cd~/rknn-toolkit2
adb push yolov11_detect_C_demo/ /userdata
608317f6-0eae-11f0-9310-92fbcf53809c.png

登录到板子切换到例程目录执行编译操作:

adb shell
cd/userdata/yolov11_detect_C_demo
chmod777 build.sh
./build.sh
609bb702-0eae-11f0-9310-92fbcf53809c.png

5.3 开发板执行yolov11目标检测算法

编译成功后切换到可执行程序目录,如下所示:

cd/userdata/yolov11_detect_C_demo/yolov11_detect_demo_release

运行例程命令如下所示:

chmod777 yolov11_detect_demo
./yolov11_detect_demo yolov11s_rk3576.rknn bus.jpg

执行结果如下图所示,yolov11s算法执行时间为47ms:

60b56b66-0eae-11f0-9310-92fbcf53809c.png

退出板卡环境,取回测试图片:

exit
adb pull /userdata/yolov11_detect_C_demo/yolov11_detect_demo_release/results.jpg .

至此,yolov11目标检测例程已成功在板卡运行。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 算法
    +关注

    关注

    23

    文章

    4760

    浏览量

    97121
  • 模型
    +关注

    关注

    1

    文章

    3648

    浏览量

    51692
  • 代码
    +关注

    关注

    30

    文章

    4940

    浏览量

    73116
  • 目标检测
    +关注

    关注

    0

    文章

    230

    浏览量

    16375
  • rk3576
    +关注

    关注

    1

    文章

    227

    浏览量

    1368

原文标题:RK3576 Yolov11训练部署教程

文章出处:【微信号:easy-eai-AIoT,微信公众号:EASY EAI灵眸科技】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    【米尔RK3576开发板评测】+项目名称YOLOV5目标检测

    ../model/yolov5s_relu.onnx rk3576 i8 ../model/yolov5s_relu.rknn 四、PC端运行程序 cd Projects/rknn_model_zoo
    发表于 02-15 13:24

    【米尔RK3576开发板评测】+项目名称百度飞桨PP-YOLOE

    /ppyoloe_s.onnx rk3576 i8 ../model/ppyoloe_s.rknn 3.3、程序编译,将转换后RKNN模型,编译成为RK3576能够运行的文件。 bash ./build-linux.sh -t
    发表于 02-15 17:14

    RK3576 vs RK3588:为何越来越多的开发者转向RK3576

    瑞芯微(Rockchip)最新发布的 RK3576 一经推出,就吸引了大量原本关注 RK3588 的开发者。RK3588 作为旗舰级芯片,性能固然强大,但 RK3576 凭借其超高的能
    发表于 05-30 08:46

    Mpp支持RK3576

    想问下,https://github.com/rockchip-linux/mpp这里面支持RK3576么,看介绍没有提到说支持RK3576 目前是买了个rk3576的机顶盒,搭载了安卓14,想做安卓视频硬解。
    发表于 06-13 15:35

    【作品合集】米尔RK3576开发板测评

    】米尔RK3576开发板免费试用 作者:EPTmachine【米尔RK3576开发板免费体验】1、开发环境、镜像烧录、QT开发环境搭建以及应用部署 【米尔RK3576开发板免费体验】2
    发表于 09-11 10:19

    新品体验 | RK3576开发板

    前言:RK3576作为瑞芯微第二代8nm高性能AIOT平台,一经推出便获得了极大的关注。广州眺望电子科技有限公司是一家专注于嵌入式处理器模组研发与应用的国家高新技术企业,目前公司已推出的相关型号有
    的头像 发表于 11-01 08:08 2775次阅读
    新品体验 | <b class='flag-5'>RK3576</b>开发板

    RK3576单板发布倒计时:RK3399与RK3576对比

    好多人说RK3576RK3399的升级版,某种程度上也可以这么说,RK3576在强大的多媒体功能的基础上,性能和接口都进行了升级 一、工艺 性能 rk3576采用 Rockchip
    的头像 发表于 12-03 16:59 2100次阅读
    <b class='flag-5'>RK3576</b>单板发布倒计时:<b class='flag-5'>RK</b>3399与<b class='flag-5'>RK3576</b>对比

    RK3576 yolov8训练部署教程

    本章展示yolov8模型的在EASY EAI Orin nano的部署过程。
    的头像 发表于 04-02 16:04 1562次阅读
    <b class='flag-5'>RK3576</b> <b class='flag-5'>yolov</b>8<b class='flag-5'>训练</b><b class='flag-5'>部署</b>教程

    OrinNano yolov11训练部署教程

    ORinNano yolov11训练部署教程
    的头像 发表于 04-10 15:26 2213次阅读
    OrinNano  <b class='flag-5'>yolov11</b><b class='flag-5'>训练</b><b class='flag-5'>部署</b>教程

    RK3576 yolov11-seg训练部署教程

    级的精确目标检测与分割,适用于自动驾驶、医学影像、工业检测等对精度和速度要求苛刻的场景。        本教程针对目标分割算法yolov11 seg的训练部署到EASY-EAI-Orin-nano(
    的头像 发表于 04-16 09:43 1882次阅读
    <b class='flag-5'>RK3576</b> <b class='flag-5'>yolov11</b>-seg<b class='flag-5'>训练</b><b class='flag-5'>部署</b>教程

    RK3576 yolo11-seg训练部署教程

    和分割头设计,实现了像素级的精确目标检测与分割,适用于自动驾驶、医学影像、工业检测等对精度和速度要求苛刻的场景。本教程针对目标分割算法yolov11seg的训练和部
    的头像 发表于 07-25 15:21 1219次阅读
    <b class='flag-5'>RK3576</b> yolo<b class='flag-5'>11</b>-seg<b class='flag-5'>训练</b><b class='flag-5'>部署</b>教程

    RK3576 Yolov11训练部署教程

    、使用最广泛的YOLO变体。YOLO11将延续YOLO系列的传奇。本教程针对目标检测算法yolo11训练部署到EASY-EAI-Orin-nano(
    的头像 发表于 07-25 15:22 794次阅读
    <b class='flag-5'>RK3576</b> <b class='flag-5'>Yolov11</b><b class='flag-5'>训练</b><b class='flag-5'>部署</b>教程

    瑞芯微RK3576RK3576S有什么区别,性能参数配置与型号差异解析

    瑞芯微第二代8nm高性能AIOT平台RK3576家族再添新成员-RK3576S,先说结论:相较主型号的RK3576/RK3576J,性能略有缩减,而功耗有所降低。主要应用于商显终端、智
    的头像 发表于 08-14 23:57 1733次阅读
    瑞芯微<b class='flag-5'>RK3576</b>与<b class='flag-5'>RK3576</b>S有什么区别,性能参数配置与型号差异解析

    基于瑞芯微RK3576yolov5训练部署教程

    5 的网络结构分为输入端BackboneNeck、Head 四个部分。 本教程针对目标检测算法yolov5的训练部署到EASY-EAI-Orin-nano(RK3576)进行说明,而
    的头像 发表于 09-11 16:43 2378次阅读
    基于瑞芯微<b class='flag-5'>RK3576</b>的 <b class='flag-5'>yolov</b>5<b class='flag-5'>训练</b><b class='flag-5'>部署</b>教程

    迅为如何在RK3576部署YOLOv5;基于RK3576构建智能门禁系统

    迅为如何在RK3576开发板上部署YOLOv5;基于RK3576构建智能门禁系统
    的头像 发表于 11-25 14:06 954次阅读
    迅为如何在<b class='flag-5'>RK3576</b>上<b class='flag-5'>部署</b><b class='flag-5'>YOLOv</b>5;基于<b class='flag-5'>RK3576</b>构建智能门禁系统