0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

YOLOv5使用教程详解(单卡,多卡,多机训练)

jf_pmFSk4VX 来源:GiantPandaCV 作者:GiantPandaCV 2022-11-21 15:42 次阅读

前言

代码仓库地址:https://github.com/Oneflow-Inc/one-yolov5欢迎star one-yolov5项目 获取 最新的动态。如果你有问题,欢迎在仓库给我们提出宝贵的意见。 如果对你有帮助,欢迎来给我Star呀~

声明:Model Train(以coco数据集为例) 。本文涉及到了大量的超链接,但是在微信文章里面外链接会被吃掉,所以欢迎大家到这里查看本篇文章的完整版本:https://start.oneflow.org/oneflow-yolo-doc/tutorials/03_chapter/quick_start.html

项目结构预览

8e8b9c84-68d6-11ed-8abf-dac502259ad0.pngimage

安装

gitclonehttps://github.com/Oneflow-Inc/one-yolov5#clone
cdone-yolov5
pipinstall-rrequirements.txt#install

训练

两种训练方式

  1. 带权重训练
$pythonpath/to/train.py--datacoco.yaml--weightsyolov5s--img640
  1. 不带权重训练
$pythonpath/to/train.py--datacoco.yaml--weights''--cfgyolov5s.yaml--img640

GPU训练

$pythontrain.py--datacoco.yaml--weightsyolov5s--device0

多GPU训练

$python-moneflow.distributed.launch--nproc_per_node2train.py--batch64--datacoco.yaml--weightsyolov5s--device0,1

注意:

  • --nproc_per_node 指定要使用多少GPU。举个例子:在上面 多GPU训练指令中它是2。

  • --batch 是总批量大小。它将平均分配给每个GPU。在上面的示例中,每GPU是64/2=32。

  • --cfg : 指定一个包含所有评估参数的配置文件。

  • 上面的代码默认使用GPU 0…(N-1)。使用特定的GPU?可以通过简单在 --device 后跟指定GPU来实现。「案例」,在下面的代码中,我们将使用GPU 2,3。

$python-moneflow.distributed.launch--nproc_per_node2train.py--batch64--datacoco.yaml--cfgyolov5s.yaml--weights''--device2,3

恢复训练

如果你的训练进程中断了,你可以这样恢复先前的训练进程。

#多卡训练.
python-moneflow.distributed.launch--nproc_per_node2train.py--resume

你也可以通过 --resume 参数指定要恢复的模型路径

#记得把/path/to/your/checkpoint/path替换为你要恢复训练的模型权重路径
--resume/path/to/your/checkpoint/path

使用SyncBatchNorm

SyncBatchNorm可以提高多gpu训练的准确性,但会显著降低训练速度。它仅适用于多GPU DistributedDataParallel 训练。

建议最好在每个GPU上的样本数量较小(样本数量<=8)时使用。

要使用SyncBatchNorm,只需将添加 --sync-bn 参数选项,具体「案例」如下:

$python-moneflow.distributed.launch--nproc_per_node2train.py--batch64--datacoco.yaml--cfgyolov5s.yaml--weights''--sync-bn

评估

下面的命令是在COCO val2017数据集上以640像素的图像大小测试 yolov5x 模型。yolov5x是可用小模型中最大且最精确的,其它可用选项是 yolov5nyolov5myolov5syolov5l ,以及他们的 P6 对应项比如 yolov5s6 ,或者你自定义的模型,即 runs/exp/weights/best 。有关可用模型的更多信息,请参阅我们的README-TABLE

$pythonval.py--weightsyolov5x--datacoco.yaml--img640

推理

首先,下载一个训练好的模型权重文件,或选择你自己训练的模型;

然后,通过 detect.py文件进行推理。

pythonpath/to/detect.py--weightsyolov5s--source0#webcam
img.jpg#image
vid.mp4#video
path/#directory
path/*.jpg#glob
'https://youtu.be/Zgi9g1ksQHc'#YouTube
'rtsp://example.com/media.mp4'#RTSP,RTMP,HTTPstream

训练结果

本地日志

默认情况下,所有结果都记录为runs/train,并为每个新训练创建一个新的训练结果目录,如runs/train/exp2、runs/train/exp3等。查看训练和测试JPG以查看 mosaics, labels, predictions and augmentation 效果。注意:Mosaic Dataloader 用于训练(如下所示),这是Ultralytics发表的新概念,首次出现在YOLOv4中。

train_batch0.jpg 显示 batch 为 0 的 (mosaics and labels):

8ea4ce16-68d6-11ed-8abf-dac502259ad0.jpgimg

val_batch0_labels.jpg 展示测试 batch 为 0 的labels:

8ebcfad6-68d6-11ed-8abf-dac502259ad0.jpgimg

val_batch0_pred.jpg 展示测试 batch 为 0 predictions(预测):8ee1bcb8-68d6-11ed-8abf-dac502259ad0.jpg

训练训损失和性能的指标有记录到Tensorboard和自定义结果中results.csv日志文件,训练训完成后作为结果绘制 results.png如下。在这里,我们展示了在COCO128上训练的YOLOV5结果

  • 从零开始训练 (蓝色)。
  • 加载预训练权重 --weights yolov5s (橙色)。
8f2203d6-68d6-11ed-8abf-dac502259ad0.pngimg

具体的指标分析详见文章《模型精确度评估》

训练技巧

声明:大多数情况下,只要数据集足够大且标记良好,就可以在不改变模型或训练设置的情况下获得良好的结果。如果一开始你没有得到好的结果,你可以采取一些步骤来改进,但我们始终建议用户在考虑任何更改之前先使用所有默认设置进行一次训练。这有助于建立评估基准和发现需要改进的地方 。

模型选择

类似于YOLOv5x和YOLOv5x6的大型模型在几乎所有情况下都会产生更好的结果,但参数更多,需要更多的CUDA内存进行训练,运行速度较慢。

对于移动部署,我们推荐YOLOv5s/m,对于云部署,我们建议YOLOV5l/x。

有关所有模型的完整比较,请参阅详细表

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-FotYkHQk-1668949640644)( https://user-images.githubusercontent.com/35585791/201064824-f97c82d5-6bba-4421-86d9-194e47842e35.png)]

  • 从预先训练的权重开始训练。建议用于中小型数据集(即VOC、VisDrone、GlobalWheat)。将模型的名称传递给--weights参数。模型自动从latest YOLOv5 releasse 下载 。
pythontrain.py--datacustom.yaml--weightsyolov5s
yolov5m
yolov5l
yolov5x
custom_pretrained#自定义的网络结构文件

  • 从头开始训练的话,推荐用大的数据集(即 COCO、Objects365、OIv6 )在 --cfg 选项后传递你感兴趣的网络结构文件参数 以及空的 --weights '' 参数:
pythontrain.py--datacustom.yaml--weights''--cfgyolov5s.yaml
yolov5m.yaml
yolov5l.yaml
yolov5x.yaml

训练配置

在修改任何内容之前,首先使用默认设置进行训练,以建立性能基线。训练参数的完整列表,能够在train.py文件中发现。

  • Epochs : 默认训练300个epochs。如果早期过拟合,则可以减少训练。如果在300个周期后未发生过拟合,则可以训练更长,比如600、1200个epochs。

  • Image size: COCO以 --img 640,的分辨率进行训练,但由于数据集中有大量的小对象,它可以从更高分辨率(如--img 1280)的训练中训练。如果有许多小对象,则自定义数据集将从更高分辨率的训练中获益。最好的推断结果是在相同的--img 处获得的 ,即如果在-img 1280处进行训练,也应该在--img 1280处进行测试和检测

  • Batch Size: 使用更大的 --batch-size 。能够有效缓解小样本数产生的batchnorm统计的错误。

  • Hyperparameters:默认超参数在hyp.scratch-low.yaml文件中。我们建议你在考虑修改任何超参数之前,先使用默认超参数进行训练。一般来说,增加增强超参数将减少和延迟过度拟合,允许更长的训练和得到更高mAP值。减少损耗分量增益超参数,如hyp['obj'],将有助于减少这些特定损耗分量中的过度拟合。有关优化这些超参数的自动化方法,请参阅我们的 《超参数演化教程》。

  • ...更多训练的超参数配置请查看本文的附录。

拓展

使用多机训练

这仅适用于多GPU分布式数据并行训练。

在训练之前,确保所有机器上的文件都相同,数据集、代码库等。之后,确保机器可以相互通信

你必须选择一台主机器(其他机器将与之对话)。记下它的地址(master_addr)并选择一个端口(master-port)。对于下面的示例,将使用master_addr=192.168.1.1和master_ port=1234。

要使用它,可以执行以下指令:

#Onmastermachine0
$python-moneflow.distributed.launch--nproc_per_nodeG--nnodesN--node_rank0--master_addr"192.168.1.1"--master_port1234train.py--batch64--datacoco.yaml--cfgyolov5s.yaml--weights''
#OnmachineR
$python-moneflow.distributed.launch--nproc_per_nodeG--nnodesN--node_rankR--master_addr"192.168.1.1"--master_port1234train.py--batch64--datacoco.yaml--cfgyolov5s.yaml--weights''

其中G是每台机器的GPU数量,N是机器数量,R是从0到(N-1)的机器数量。

假设我有两台机器,每台机器有两个GPU,对于上面的情况,G=2,N=2,R=1。

在连接所有N台机器之前,训练不会开始。输出将仅显示在主机上!

注意

  • oneflow目前不支持windows平台
  • --batch 必须是GPU数量的倍数。
  • GPU 0 将比其他GPU占用略多的内存,因为它维护EMA并负责检查点等。
  • 如果你得到 RuntimeError: Address already in use ,可能是因为你一次正在运行多个训练程序。要解决这个问题,只需通过添加--master_port来使用不同的端口号,如下所示
$python-moneflow.distributed.launch--master_port1234--nproc_per_node2...

配置代码

#prepare
t=https://github.com/Oneflow-Inc/one-yolov5:latest&&sudodockerpull$t&&sudodockerrun-it--ipc=host--gpusall-v"$(pwd)"/coco:/usr/src/coco$t
pipinstall--preoneflow-fhttps://staging.oneflow.info/branch/master/cu112
cd..&&rm-rfapp&&gitclonehttps://github.com/Oneflow-Inc/one-yolov5-bmasterapp&&cdapp
cpdata/coco.yamldata/coco_profile.yaml

#profile
pythontrain.py--batch-size16--datacoco_profile.yaml--weightsyolov5l--epochs1--device0
python-moneflow.distributed.launch--nproc_per_node2train.py--batch-size32--datacoco_profile.yaml--weightsyolov5l--epochs1--device0,1
python-moneflow.distributed.launch--nproc_per_node4train.py--batch-size64--datacoco_profile.yaml--weightsyolov5l--epochs1--device0,1,2,3
python-moneflow.distributed.launch--nproc_per_node8train.py--batch-size128--datacoco_profile.yaml--weightsyolov5l--epochs1--device0,1,2,3,4,5,6,7

附件

表3.1

表3.1 : train.py参数解析表

参数 help 帮助
--weight initial weights path 加载的权重文件路径
--cfg model.yaml path 模型配置文件,网络结构 路径
--data dataset.yaml path 数据集配置文件,数据集路径
--hyp hyperparameters path 超参数文件 路径
--epochs Total training rounds 训练总轮次
--batch-size total batch size for all GPUs, -1 for autobatch 一次训练所选取的样本数
--imgsz train, val image size (pixels) 输入图片分辨率大小
--rect rectangular training 是否采用矩形训练,默认False
--resume resume most recent training 接着打断训练上次的结果接着训练
--nosave only save final checkpoint 只保存最终的模型,默认False
--noautoanchor disable AutoAnchor 不自动调整anchor,默认False
--noplots save no plot files 不保存打印文件,默认False
--evolve evolve hyperparameters for x generations 是否进行超参数进化,默认False
--bucket gsutil bucket 谷歌云盘bucket,一般不会用到
--cache --cache images in "ram" (default) or "disk" 是否提前缓存图片到内存,以加快训练速度,默认False
--device cuda device, i.e. 0 or 0,1,2,3 or cpu 训练的设备,cpu;0(表示一个gpu设备cuda:0);0,1,2,3(多个gpu设备)
--multi-scale vary img-size +/- 50%% 是否进行多尺度训练,默认False
--single-cls train multi-class data as single-class 数据集是否只有一个类别,默认False
--optimizer optimizer 优化器
--sync-bn use SyncBatchNorm, only available in DDP mode 是否使用跨卡同步BN,在DDP模式使用
--workers max dataloader workers (per RANK in DDP mode) dataloader的最大worker数量
--project save to project path 保存到项目结果地址
--name save to project/name/ 保存到项目结果/名称
--exist-ok existing project/name ok, do not increment 现有项目/名称确定,不递增,默认False
--quad quad dataloader 四元数据加载器 开启之后在尺寸大于640的图像上识别效果更好,但是有可能会使在640尺寸的图片上效果更差
--cos-lr cosine LR scheduler 是否采用退火余弦学习率,默认False
--label-smoothing Label smoothing epsilon 标签平滑
--patience EarlyStopping patience (epochs without improvement) 早停机制,默认False
--freez Freeze layers: backbone=10, first3=0 1 2 冻结层数,默认不冻结
--save-period Save checkpoint every x epochs (disabled if < 1) 用于记录训练日志信息,int 型,默认 -1
--seed Global training seed 随机数种子设置
--local_rank Automatic DDP Multi-GPU argument, do not modify 自动单机多卡训练 一般不改动

Reference

  • https://github.com/ultralytics/yolov5/wiki/Train-Custom-Data
  • https://docs.ultralytics.com/quick-start/


审核编辑 :李倩


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4417

    浏览量

    126689
  • 数据集
    +关注

    关注

    4

    文章

    1178

    浏览量

    24351

原文标题:《YOLOv5全面解析教程》六,YOLOv5使用教程详解(单卡,多卡,多机训练)

文章出处:【微信号:GiantPandaCV,微信公众号:GiantPandaCV】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    yolov5转onnx在cubeAI上部署失败的原因?

    第一个我是转onnx时 想把权重文件变小点 就用了半精度 --half,则说17版本不支持半精度 后面则是没有缩小的单精度 但是显示哪里溢出了···· 也不说是哪里、、。。。 到底能不能部署yolov5这种东西啊?? 也没看见几个部署在这上面......................
    发表于 03-14 06:23

    基于YOLOv5的目标检测文档进行的时候出错如何解决?

    你好: 按Milk-V Duo开发板实战——基于YOLOv5的目标检测 安装好yolov5环境,在执行main.py的时候会出错,能否帮忙看下 main.py: import torch
    发表于 09-18 07:47

    yolov5模型onnx转bmodel无法识别出结果如何解决?

    问题描述: 1. yolov5模型pt转bmodel可以识别出结果。(转化成功,结果正确) 2. yolov5模型pt转onnx转bmodel可以无法识别出结果。(转化成功,结果没有) 配置: 1.
    发表于 09-15 07:30

    请问从yolov5训练出的.pt文件怎么转换为k210可以使用的.kmodel文件?

    请问从yolov5训练出的.pt文件怎么转换为k210可以使用的.kmodel文件?谢谢大家了
    发表于 09-13 07:31

    Yolov5理论学习笔记

    网络在初始锚框的基础上 基于训练数据 输出预测框,因此初始锚框也是比较重要的一部分。见配置文件*.yaml, yolov5预设了COCO数据集640×640图像大小的锚定框的尺寸:
    的头像 发表于 09-12 17:08 376次阅读
    <b class='flag-5'>Yolov5</b>理论学习笔记

    YOLOv5网络结构训练策略详解

    前面已经讲过了Yolov5模型目标检测和分类模型训练流程,这一篇讲解一下yolov5模型结构,数据增强,以及训练策略。
    的头像 发表于 09-11 11:15 1116次阅读
    <b class='flag-5'>YOLOv5</b>网络结构<b class='flag-5'>训练</b>策略<b class='flag-5'>详解</b>

    YOLOv5】LabVIEW+TensorRT的yolov5部署实战(含源码)

    今天主要和大家分享在LabVIEW中使用纯TensoRT工具包快速部署并实现yolov5的物体识别
    的头像 发表于 08-21 22:20 830次阅读
    【<b class='flag-5'>YOLOv5</b>】LabVIEW+TensorRT的<b class='flag-5'>yolov5</b>部署实战(含源码)

    yolov5和YOLOX正负样本分配策略

    整体上在正负样本分配中,yolov7的策略算是yolov5和YOLOX的结合。因此本文先从yolov5和YOLOX正负样本分配策略分析入手,后引入到YOLOv7的解析中。
    发表于 08-14 11:45 1770次阅读
    <b class='flag-5'>yolov5</b>和YOLOX正负样本分配策略

    yolov5转onnx在cubeAI进行部署的时候失败了是什么原因造成的?

    第一个我是转onnx时 想把权重文件变小点 就用了半精度 --half,则说17版本不支持半精度 后面则是没有缩小的单精度 但是显示哪里溢出了···· 也不说是哪里、 到底能不能部署yolov5这种东西啊?? 也没看见几个部署在这上面......................
    发表于 08-08 07:55

    Pytorch Hub两行代码搞定YOLOv5推理

    模型。支持模型远程加载与本地推理、当前Pytorch Hub已经对接到Torchvision、YOLOv5YOLOv8、pytorchvideo等视觉框架。
    的头像 发表于 06-09 11:36 706次阅读
    Pytorch Hub两行代码搞定<b class='flag-5'>YOLOv5</b>推理

    【EASY EAI Nano人工智能开发套件试用体验】RKNN YOLOV5 例程测试及横向对比

    RKNN1 YOLOV5 DEMO及与RKNN2硬件对比 introduct Rockchip 的 RKNN(Rockchip Neural Network) 是一款 AI 推理框架,能够在
    发表于 05-31 21:49

    如何YOLOv5测试代码?

    使用文档“使用 YOLOv5 进行对象检测”我试图从文档第 10 页访问以下链接(在 i.MX8MP 上部署 yolov5s 的步骤 - NXP 社区) ...但是这样做时会被拒绝访问。该文档没有说明需要特殊许可才能下载 test.zip 文件。NXP 的人可以提供有关如
    发表于 05-18 06:08

    浅析基于改进YOLOv5的输电线路走廊滑坡灾害识别

    本文以YOLOv5网络模型为基础,提出一种改进YOLOv5YOLOv5-BC)深度学习滑坡灾害识别方法,将原有的PANet层替换为BiFPN结构,提高网络多层特征融合能力
    的头像 发表于 05-17 17:50 982次阅读
    浅析基于改进<b class='flag-5'>YOLOv5</b>的输电线路走廊滑坡灾害识别

    Yolov5算法解读

    yolov5于2020年由glenn-jocher首次提出,直至今日yolov5仍然在不断进行升级迭代。 Yolov5YOLOv5s、YOLOv
    的头像 发表于 05-17 16:38 4289次阅读
    <b class='flag-5'>Yolov5</b>算法解读

    yolov5训练的tflite模型进行对象检测不适用于NNStreamer 2.2.0-r0?

    yolov5 训练的 tflite 模型进行对象检测不适用于 NNStreamer 2.2.0-r0。在之前的 NNStreamer 2.1.1 版本中,我曾经获取检测框,而当前版本显示框架的标签
    发表于 05-17 12:44