0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

我们是如何改进YOLOv3进行红外小目标检测的

电子设计 来源:电子设计 作者:电子设计 2020-12-08 22:21 次阅读
文章转载于微信公众号:GiantPandaCV
作者:pprp

【GiantPandCV导语】本文将介绍BBuf、小武和笔者一起在过年期间完成的一个目标检测项目,将描述我们模型改进的思路、实验思路、结果汇总和经验性总结。声明:这篇文章经过了三人同意,并且所有创新点也将被公布。此外,由于经验上的不足,可能整个实验思路不够成熟,比不上CV大组的严谨性,如有问题还烦请指教。

1. 红外小目标检测

红外小目标检测的目标比较小,目标极其容易和其他物体混淆,有一定的挑战性。

另外,这本质上也是一个小目标领域的问题,很多适用于小目标的创新点也会被借鉴进来。

数据来源自@小武
此外,该数据集还有一个特点,就是分背景,虽然同样是检测红外小目标,区别是背景的不同,我们对数据集进行了统计以及通过人工翻看的方式总结了其特点,如下表所示:

通过以上结果,可以看出背景的不同对结果影响还是蛮大的,最后一列也给出了针对性的建议,打算后续实施。

2. 实验过程

首先,我们使用的是U版的yolov3: https://github.com/ultralytics/yolov3,那时候YOLOv4/5、PPYOLO还都没出,当时出了一个《从零开始学习YOLOv3》就是做项目的时候写的电子书,其中的在YOLOv3中添加注意力机制那篇很受欢迎(可以水很多文章出来,毕业要紧:)

我们项目的代码以及修改情况可以查看:https://github.com/GiantPandaCV/yolov3-point

将数据集转成VOC格式的数据集,之前文章有详细讲述如何转化为标准的VOC数据集,以及如何将VOC格式数据集转化为U版的讲解。当时接触到几个项目,都需要用YOLOv3,由于每次都需要转化,大概分别调用4、5个脚本吧,感觉很累,所以当时花了一段时间构建了一个一键从VOC转U版YOLOv3格式的脚本库: https://github.com/pprp/voc2007_for_yolo_torch

到此时为止,我们项目就已经可以运行了,然后就是很多细节调整了。

2.1 修改Anchor

红外小目标的Anchor和COCO等数据集的Anchor是差距很大的,为了更好更快速的收敛,采用了BBuf总结的一套专门计算Anchor的脚本:

#coding=utf-8importxml.etree.ElementTreeasETimportnumpyasnpdefiou(box,clusters):"""计算一个ground truth边界盒和k个先验框(Anchor)的交并比(IOU)值。参数box:元组或者数据,代表ground truth的长宽。参数clusters:形如(k,2)的numpy数组,其中k是聚类Anchor框的个数返回:ground truth和每个Anchor框的交并比。"""x=np.minimum(clusters[:,0],box[0])y=np.minimum(clusters[:,1],box[1])ifnp.count_nonzero(x==0)>0ornp.count_nonzero(y==0)>0:raiseValueError("Boxhasnoarea")intersection=x*ybox_area=box[0]*box[1]cluster_area=clusters[:,0]*clusters[:,1]iou_=intersection/(box_area+cluster_area-intersection)returniou_defavg_iou(boxes,clusters):"""计算一个ground truth和k个Anchor的交并比的均值。"""returnnp.mean([np.max(iou(boxes[i],clusters))foriinrange(boxes.shape[0])])defkmeans(boxes,k,dist=np.median):"""利用IOU值进行K-means聚类参数boxes:形状为(r,2)的groundtruth框,其中r是groundtruth的个数参数k:Anchor的个数参数dist:距离函数返回值:形状为(k, 2)的k个Anchor框"""#即是上面提到的rrows=boxes.shape[0]#距离数组,计算每个groundtruth和k个Anchor的距离distances=np.empty((rows,k))#上一次每个groundtruth"距离"最近的Anchor索引last_clusters=np.zeros((rows,))#设置随机数种子np.random.seed()#初始化聚类中心,k个簇,从r个groundtruth随机选k个clusters=boxes[np.random.choice(rows,k,replace=False)]#开始聚类whileTrue:#计算每个groundtruth和k个Anchor的距离,用1-IOU(box,anchor)来计算forrowinrange(rows):distances[row]=1-iou(boxes[row],clusters)#对每个groundtruth,选取距离最小的那个Anchor,并存下索引nearest_clusters=np.argmin(distances,axis=1)#如果当前每个groundtruth"距离"最近的Anchor索引和上一次一样,聚类结束if(last_clusters==nearest_clusters).all():break#更新簇中心为簇里面所有的groundtruth框的均值forclusterinrange(k):clusters[cluster]=dist(boxes[nearest_clusters==cluster],axis=0)#更新每个groundtruth"距离"最近的Anchor索引last_clusters=nearest_clustersreturnclusters#加载自己的数据集,只需要所有labelimg标注出来的xml文件即可defload_dataset(path):dataset=[]forxml_fileinglob.glob("{}/*xml".format(path)):tree=ET.parse(xml_file)#图片高度height=int(tree.findtext("./size/height"))#图片宽度width=int(tree.findtext("./size/width"))forobjintree.iter("object"):#偏移量xmin=int(obj.findtext("bndbox/xmin"))/widthymin=int(obj.findtext("bndbox/ymin"))/heightxmax=int(obj.findtext("bndbox/xmax"))/widthymax=int(obj.findtext("bndbox/ymax"))/heightxmin=np.float64(xmin)ymin=np.float64(ymin)xmax=np.float64(xmax)ymax=np.float64(ymax)ifxmax==xminorymax==ymin:print(xml_file)#将Anchor的长宽放入dateset,运行kmeans获得Anchordataset.append([xmax-xmin,ymax-ymin])returnnp.array(dataset)if__name__=='__main__':ANNOTATIONS_PATH="F:/Annotations"#xml文件所在文件夹CLUSTERS=9#聚类数量,anchor数量INPUTDIM=416#输入网络大小data=load_dataset(ANNOTATIONS_PATH)out=kmeans(data,k=CLUSTERS)print('Boxes:')print(np.array(out)*INPUTDIM)print("Accuracy:{:.2f}%".format(avg_iou(data,out)*100))final_anchors=np.around(out[:,0]/out[:,1],decimals=2).tolist()print("BeforeSortRatios:/n{}".format(final_anchors))print("AfterSortRatios:/n{}".format(sorted(final_anchors)))

通过浏览脚本就可以知道,Anchor和图片的输入分辨率有没有关系 这个问题了,当时这个问题有很多群友都在问。通过kmeans函数得到的结果实际上是归一化到0-1之间的,然后Anchor的输出是在此基础上乘以输入分辨率的大小。所以个人认为Anchor和图片的输入分辨率是有关系的。

此外,U版也提供了Anchor计算,如下:

defkmean_anchors(path='./2007_train.txt',n=5,img_size=(416,416)):#fromutils.utilsimport*;_=kmean_anchors()#Producesalistoftargetkmeanssuitableforusein*.cfgfilesfromutils.datasetsimportLoadImagesAndLabelsthr=0.20#IoUthresholddefprint_results(thr,wh,k):k=k[np.argsort(k.prod(1))]#sortsmalltolargeiou=wh_iou(torch.Tensor(wh),torch.Tensor(k))max_iou,min_iou=iou.max(1)[0],iou.min(1)[0]bpr,aat=(max_iou>thr).float().mean(),(iou>thr).float().mean()*n#bestpossiblerecall,anch>thrprint('%.2fiou_thr:%.3fbestpossiblerecall,%.2fanchors>thr'%(thr,bpr,aat))print('kmeansanchors(n=%g,img_size=%s,IoU=%.3f/%.3f/%.3f-min/mean/best):'%(n,img_size,min_iou.mean(),iou.mean(),max_iou.mean()),end='')fori,xinenumerate(k):print('%i,%i'%(round(x[0]),round(x[1])),end=','ifi< len(k) - 1 else '/n')  # use in *.cfg        return k    def fitness(thr, wh, k):  # mutation fitness        iou = wh_iou(wh, torch.Tensor(k)).max(1)[0]  # max iou        bpr = (iou >thr).float().mean()#bestpossiblerecallreturniou.mean()*bpr#product#Getlabelwhwh=[]dataset=LoadImagesAndLabels(path,augment=True,rect=True,cache_labels=True)nr=1ifimg_size[0]==img_size[1]else10#numberaugmentationrepetitionsfors,linzip(dataset.shapes,dataset.labels):wh.append(l[:,3:5]*(s/s.max()))#imagenormalizedtoletterboxnormalizedwhwh=np.concatenate(wh,0).repeat(nr,axis=0)#augment10xwh*=np.random.uniform(img_size[0],img_size[1],size=(wh.shape[0],1))#normalizedtopixels(multi-scale)#Darknetyolov3.cfganchorsuse_darknet=Falseifuse_darknet:k=np.array([[10,13],[16,30],[33,23],[30,61],[62,45],[59,119],[116,90],[156,198],[373,326]])else:#Kmeanscalculationfromscipy.cluster.vqimportkmeansprint('Runningkmeansfor%ganchorson%gpoints...'%(n,len(wh)))s=wh.std(0)#sigmasforwhiteningk,dist=kmeans(wh/s,n,iter=30)#points,meandistancek*=sk=print_results(thr,wh,k)#Evolvewh=torch.Tensor(wh)f,ng=fitness(thr,wh,k),2000#fitness,generationsfor_intqdm(range(ng),desc='Evolvinganchors'):kg=(k.copy()*(1+np.random.random()*np.random.randn(*k.shape)*0.30)).clip(min=2.0)fg=fitness(thr,wh,kg)iffg>f:f,k=fg,kg.copy()print_results(thr,wh,k)k=print_results(thr,wh,k)returnk

这个和超参数搜索那篇采用的方法类似,也是一种类似遗传算法的方法,通过一代一代的筛选找到合适的Anchor。以上两种方法笔者并没有对比,有兴趣可以试试这两种方法,对比看看。

Anchor这方面设置了三个不同的数量进行聚类:

3 anchor:

13,18,16,22,19,25

6 anchor:

12,17,14,17,15,19,15,21,13,20,19,24

9 anchor:

10,16,12,17,13,20,13,22,15,18,15,20,15,23,18,23,21,26

2.2 构建Baseline

由于数据集是单类的,并且相对VOC等数据集来看,比较单一,所以不打算使用Darknet53这样的深度神经网络,采用的Baseline是YOLOv3-tiny模型,在使用原始Anchor的情况下,该模型可以在验证集上达到mAP@0.5=93.2%,在测试集上达到mAP@0.5=0.869的结果。

那接下来换Anchor,用上一节得到的新Anchor替换掉原来的Anchor,该改掉的模型为yolov3-tiny-6a:


可以看到几乎所有的指标都提升了,这说明Anchor先验的引入是很有必要的。

2.3 数据集部分改进

上边已经分析过了,背景对目标检测的结果还是有一定影响的,所以我们先后使用了几种方法进行改进。

第一个:过采样

通过统计不同背景的图像的数量,比如以sea为背景的图像只有17张,而最多的cloudless/_sky为背景的图像有1300+张,这就产生了严重的不平衡性。显然cloudless/_sky为背景的很简单,sea为背景的难度更大,这样由于数据不平衡的原因,训练得到的模型很可能也会在cloudless/_sky这类图片上效果很好,在其他背景下效果一般。
所以首先要采用过采样的方法,这里的过采样可能和别的地方的不太一样,这里指的是将某些背景数量小的图片通过复制的方式扩充。

:( 可惜实验结果不支持想法,一起分析一下。ps:os代表over sample

然后进行分背景测试,结果如下:

均衡后的分背景测试

从分背景结果来看,确实sea训练数据很少的结果很好,mAP提高了2个点,但是complex/_cloud等mAP有所下降。总结一下就是对于训练集中数据很少的背景类mAP有提升,但是其他本身数量就很多的背景mAP略微下降或者保持。

第二个:在图片中任意位置复制小目标

修改后的版本地址:https://github.com/pprp/SimpleCVReproduction/tree/master/SmallObjectAugmentation

具体实现思路就是,先将所有小目标抠出来备用。然后在图像上复制这些小目标,要求两两之间重合率不能达到一个阈值并且复制的位置不能超出图像边界。

效果如下:(这个是示意图,比较夸张,复制的个数比较多

增强结果

这种做法来自当时比较新的论文《Augmentation for small object detection》,文中最好的结果是复制了1-2次。实际我们项目中也试过1次、2次、3次到多次的结果,都不尽如人意,结果太差就没有记录下来。。(话说论文中展示的效果最佳组合是原图+增强后的图,并且最好的结果也就提高了1个百分点)╮(╯﹏╰)╭

2.4 修改Backbone

修改Backbone经常被群友问到这样一件事,修改骨干网络以后无法加载预训练权重了,怎么办?
有以下几个办法:

  • 干脆不加载,从头训练,简单问题(比如红外小目标)从头收敛效果也不次于有预训练权重的。
  • 不想改代码的话,可以选择修改Backbone之后、YOLO Head之前的部分(比如SPP的位置属于这种情况)
  • 能力比较强的,可以改一下模型加载部分代码,跳过你新加入的模块,这样也能加载(笔者没试过,别找我)。

修改Backbone我们也从几个方向入的手,分为注意力模块、即插即用模块、修改FPN、修改激活函数、用成熟的网络替换backbone和SPP系列。
1. 注意力模块
这个项目中使用的注意力模块,大部分都在公号上写过代码解析,感兴趣的可以翻看一下。笔者前一段时间公布了一个电子书《卷积神经网络中的即插即用模块》也是因为这个项目中总结了很多注意力模块,所以开始整理得到的结果。具体模块还在继续更新:https://github.com/pprp/SimpleCVReproduction
当时实验的模块有:SE、CBAM等,由于当时Baseline有点高,效果并不十分理想。(注意力模块插进来不可能按照预期一下就提高多少百分点,需要多调参才有可能超过原来的百分点)根据群友反馈,SE直接插入成功率比较高。笔者在一个目标检测比赛中见到有一个大佬是在YOLOv3的FPN的三个分支上各加了一个CBAM,最终超过Cascade R-CNN等模型夺得冠军。
2. 即插即用模块
注意力模块也属于即插即用模块,这部分就说的是非注意力模块的部分如 FFM、ASPP、PPM、Dilated Conv、SPP、FRB、CorNerPool、DwConv、ACNet等,效果还可以,但是没有超过当前最好的结果。
3. 修改FPN
FPN这方面花了老久时间,参考了好多版本才搞出了一个dt-6a-bifpn(dt代表dim target红外目标;6a代表6个anchor),令人失望的是,这个BiFPN效果并不好,测试集上效果更差了。可能是因为实现的cfg有问题,欢迎反馈。
大家都知道通过改cfg的方式改网络结构是一件很痛苦的事情,推荐一个可视化工具:

https://lutzroeder.github.io/netron/

除此以外,为了方便查找行数,笔者写了一个简单脚本用于查找行数(献丑了

importosimportshutilcfg_path="./cfg/yolov3-dwconv-cbam.cfg"save_path="./cfg/preprocess_cfg/"new_save_name=os.path.join(save_path,os.path.basename(cfg_path))f=open(cfg_path,'r')lines=f.readlines()#去除以#开头的,属于注释部分的内容#lines=[xforxinlinesifxandnotx.startswith('#')]#lines=[x.rstrip().lstrip()forxinlines]lines_nums=[]layers_nums=[]layer_cnt=-1fornum,lineinenumerate(lines):ifline.startswith('['):layer_cnt+=1layers_nums.append(layer_cnt)lines_nums.append(num+layer_cnt)print(line)#s=s.join("")#s=s.join(line)fori,numinenumerate(layers_nums):print(lines_nums[i],num)lines.insert(lines_nums[i]-1,'#layer-%d/n'%(num-1))fo=open(new_save_name,'w')fo.write(''.join(lines))fo.close()f.close()

我们也尝试了只用一个、两个和三个YOLO Head的情况,结果是3>2>1,但是用3个和2个效果几乎一样,差异不大小数点后3位的差异,所以还是选用两个YOLO Head。
4. 修改激活函数
YOLO默认使用的激活函数是leaky relu,激活函数方面使用了mish。效果并没有提升,所以无疾而终了。
5. 用成熟的网络替换backbone
这里使用了ResNet10(第三方实现)、DenseNet、BBuf修改的DenseNet、ENet、VOVNet(自己改的)、csresnext50-panet(当时AB版darknet提供的)、PRN(作用不大)等网络结构。
当前最强的网络是dense-v3-tiny-spp,也就是BBuf修改的Backbone+原汁原味的SPP组合的结构完虐了其他模型,在测试集上达到了mAP@0.5=0.932、F1=0.951的结果。
6. SPP系列
这个得好好说说,我们三人调研了好多论文、参考了好多trick,大部分都无效,其中从来不会让人失望的模块就是SPP。我们对SPP进行了深入研究,在《卷积神经网络中的各种池化操作》中提到过。
SPP是在SPPNet中提出的,SPPNet提出比较早,在RCNN之后提出的,用于解决重复卷积计算和固定输出的两个问题,具体方法如下图所示:

在feature map上通过selective search获得窗口,然后将这些区域输入到CNN中,然后进行分类。
实际上SPP就是多个空间池化的组合,对不同输出尺度采用不同的划窗大小和步长以确保输出尺度相同,同时能够融合金字塔提取出的多种尺度特征,能够提取更丰富的语义信息。常用于多尺度训练和目标检测中的RPN网络。
在YOLOv3中有一个网络结构叫yolov3-spp.cfg, 这个网络往往能达到比yolov3.cfg本身更高的准确率,具体cfg如下:

###SPP###[maxpool]stride=1size=5[route]layers=-2[maxpool]stride=1size=9[route]layers=-4[maxpool]stride=1size=13[route]layers=-1,-3,-5,-6###EndSPP###

这里的SPP相当于是原来的SPPNet的变体,通过使用多个kernel size的maxpool,最终将所有feature map进行concate,得到新的特征组合。

再来看一下官方提供的yolov3和yolov3-spp在COCO数据集上的对比:

可以看到,在几乎不增加FLOPS的情况下,YOLOv3-SPP要比YOLOv3-608mAP高接近3个百分点。
分析一下SPP有效的原因:

  1. 从感受野角度来讲,之前计算感受野的时候可以明显发现,maxpool的操作对感受野的影响非常大,其中主要取决于kernel size大小。在SPP中,使用了kernel size非常大的maxpool会极大提高模型的感受野,笔者没有详细计算过darknet53这个backbone的感受野,在COCO上有效很可能是因为backbone的感受野还不够大。
  2. 第二个角度是从Attention的角度考虑,这一点启发自CSDN@小楞,他在文章中这样讲:
出现检测效果提升的原因:通过spp模块实现局部特征和全局特征(所以空间金字塔池化结构的最大的池化核要尽可能的接近等于需要池化的featherMap的大小)的featherMap级别的融合,丰富最终特征图的表达能力,从而提高MAP。

Attention机制很多都是为了解决远距离依赖问题,通过使用kernel size接近特征图的size可以以比较小的计算代价解决这个问题。另外就是如果使用了SPP模块,就没有必要在SPP后继续使用其他空间注意力模块比如SK block,因为他们作用相似,可能会有一定冗余。

在本实验中,确实也得到了一个很重要的结论,那就是:
SPP是有效的,其中size的设置应该接近这一层的feature map的大小
口说无凭,看一下实验结果:
SPP系列实验

当前的feature map大小就是13x13,实验结果表示,直接使用13x13的效果和SPP的几乎一样,运算量还减少了。

2.5 修改Loss

loss方面尝试了focal loss,但是经过调整alpha和beta两个参数,不管用默认的还是自己慢慢调参,网络都无法收敛,所以当时给作者提了一个issue: https://github.com/ultralytics/yolov3/issues/811
glenn-jocher说效果不好就别用:(

作者回复

BBuf也研究了好长时间,发现focal loss在Darknet中可以用,但是效果也一般般。最终focal loss也是无疾而终。此外还试着调整了ignore thresh,来配合focal loss,实验结果如下(在AB版Darknet下完成实验):

3. 经验性总结

在这个实验过程中,和BBuf讨论有了很多启发,也进行了总结,在这里公开出来,(可能部分结论不够严谨,没有经过严格对比实验,感兴趣的话可以做一下对比实验)。

  • SPP层是有效的,Size设置接近feature map的时候效果更好。
  • YOLOv3、YOLOv3-SPP、YOLOv3-tiny三者在检测同一个物体的情况下,YOLOv3-tiny给的该物体的置信度相比其他两个模型低。(其实也可以形象化理解,YOLOv3-tiny的脑容量比较小,所以唯唯诺诺不敢确定)
  • 个人感觉Concate的方法要比Add的方法更柔和,对小目标效果更好。本实验结果上是DenseNet作为Backbone的时候效果是最佳的。
  • 多尺度训练问题,这个文中没提。多尺度训练对于尺度分布比较广泛的问题效果明显,比如VOC这类数据集。但是对于尺度单一的数据集反而有反作用,比如红外小目标数据集目标尺度比较统一,都很小。
  • Anchor对模型影响比较大,Anchor先验不合理会导致更多的失配,从而降低Recall。
  • 当时跟群友讨论的时候就提到一个想法,对于小目标来说,浅层的信息更加有用,那么进行FPN的时候,不应该单纯将两者进行Add或者Concate,而是应该以一定的比例完成,比如对于小目标来说,引入更多的浅层信息,让浅层网络权重增大;大目标则相反。后边通过阅读发现,这个想法被ASFF实现了,而且想法比较完善。
  • PyTorch中的Upsample层是不可复现的。
  • 有卡可以尝试一下超参数进化方法。

PS: 以上内容不保证结论完全正确,只是经验性总结,欢迎入群讨论交流。

4. 致谢

感谢BBuf和小武和我一起完成这个项目,感谢小武提供的数据和算法,没有小武的支持,我们无法完成这么多实验。感谢BBuf的邀请,我才能加入这个项目,一起讨论对我的帮助非常大(怎么没早点遇见BB:)
虽然最后是烂尾了,但是学到了不少东西,很多文章都是在这个过程中总结得到的,在这个期间总结的文章有《CV中的Attention机制》、《从零开始学习YOLOv3》、《目标检测和感受野的总结和想法》、《PyTorch中模型的可复现性》、《目标检测算法优化技巧》等,欢迎去干货锦集中回顾。
以上是整个实验过程的一部分,后边阶段我们还遇到了很多困难,想将项目往轻量化的方向进行,由于种种原因,最终没有继续下去,在这个过程中,总结一下教训,实验说明和备份要做好,修改的数据集、训练得到的权重、当时的改动点要做好备份。现在回看之前的实验记录和cfg文件都有点想不起来某些模型的改动点在哪里了,还是整理的不够详细,实验记录太乱。
最后希望这篇文章能给大家提供一些思路。

5. 资源列表

官方代码:https://github.com/ultralytic...
改进代码:https://github.com/GiantPanda...
Focal Loss Issue: https://github.com/ultralytic...
小目标增强库(复制和粘贴的方式):https://github.com/pprp/Simpl...
pprp Github: https://github.com/pprp
BBuf Github:https://github.com/BBuf
以上涉及到的所有实验结果已经整理成markdown文件,请在后台回复“红外”获得。


欢迎关注GiantPandaCV, 在这里你将看到独家的深度学习分享,坚持原创,每天分享我们学习到的新鲜知识。( • ̀ω•́ )✧
- END -

推荐阅读

更多嵌入式AI技术干货请关注嵌入式AI专栏。

审核编辑:符乾江
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 目标检测
    +关注

    关注

    0

    文章

    185

    浏览量

    15455
  • 深度学习
    +关注

    关注

    73

    文章

    5239

    浏览量

    119911
收藏 人收藏

    评论

    相关推荐

    OpenVINO™ C# API部署YOLOv9目标检测和实例分割模型

    YOLOv9模型是YOLO系列实时目标检测算法中的最新版本,代表着该系列在准确性、速度和效率方面的又一次重大飞跃。
    的头像 发表于 04-03 17:35 299次阅读
    OpenVINO™ C# API部署<b class='flag-5'>YOLOv</b>9<b class='flag-5'>目标</b><b class='flag-5'>检测</b>和实例分割模型

    深入浅出Yolov3Yolov4

    Yolov3目标检测Yolo系列非常非常经典的算法,不过很多同学拿到Yolov3或者Yolov4的cfg文件时,并不知道如何直观的可视化查
    的头像 发表于 01-11 10:42 251次阅读
    深入浅出<b class='flag-5'>Yolov3</b>和<b class='flag-5'>Yolov</b>4

    深度学习YOLOv3 模型设计的基本思想

    检测任务中,将图中C0后面的平均池化、全连接层和Softmax去掉,保留从输入到C0部分的网络结构,作为检测模型的基础网络结构,也称为骨干网络 YOLOv3模型会在骨干网络的基础上,再添加
    发表于 10-17 10:32 150次阅读
    深度学习<b class='flag-5'>YOLOv3</b> 模型设计的基本思想

    YOLOv3的darknet模型先转为caffe模型后再转为fp32bmodel,模型输出和原始模型输出存在偏差是怎么回事?

    YOLOv3的darknet模型先转为caffe模型后再转为fp32bmodel,模型输出和原始模型输出存在偏差?
    发表于 09-19 06:26

    基于YOLOv5的目标检测文档进行的时候出错如何解决?

    你好: 按Milk-V Duo开发板实战——基于YOLOv5的目标检测 安装好yolov5环境,在执行main.py的时候会出错,能否帮忙看下 main.py: import to
    发表于 09-18 07:47

    如何用PyArmNN和Debian包实现YOLOv3目标检测

    2 本指南审查与PyARmNN进行物体探测的样本应用。本指南包含以下内容: 介绍PyARmNN和与PyARmNN兼容的剖析器; 介绍物体探测和物体探测与图像探测之间的差异; 如何在Raspberry
    发表于 08-22 08:21

    YOLOv8+OpenCV实现DM码定位检测与解析

    YOLOv8是YOLO系列模型的最新王者,各种指标全面超越现有对象检测与实例分割模型,借鉴了YOLOv5、YOLOv6、YOLOX等模型的设计优点,全面提升
    的头像 发表于 08-10 11:35 740次阅读
    <b class='flag-5'>YOLOv</b>8+OpenCV实现DM码定位<b class='flag-5'>检测</b>与解析

    【KV260视觉入门套件试用体验】KV260部署yolov3实现车辆和行人检测

    KV260-yolov3部署已知KV260官方中提供的四个智能检测已经实现了两个,其余两个根据个人兴趣进行部署即可这里不做相关的说明。需要提前说明的是通过uboot引导加载的是ubuntu的系统
    发表于 08-08 14:29

    基于Yolov5+图像分割的车牌实时检测识别系统

    YOLO算法从总体上看,是单阶段端到端的基于anchor-free的检测算法。将图片输入网络进行特征提取与融合后,得到检测目标的预测框位置以及类概率。而
    发表于 07-18 14:32 1799次阅读
    基于<b class='flag-5'>Yolov</b>5+图像分割的车牌实时<b class='flag-5'>检测</b>识别系统

    无Anchor的目标检测算法边框回归策略

    导读 本文主要讲述:1.无Anchor的目标检测算法:YOLOv1,CenterNet,CornerNet的边框回归策略;2.有Anchor的目标
    的头像 发表于 07-17 11:17 609次阅读
    无Anchor的<b class='flag-5'>目标</b><b class='flag-5'>检测</b>算法边框回归策略

    基于DeepSORT YOLOv4的目标跟踪

    电子发烧友网站提供《基于DeepSORT YOLOv4的目标跟踪.zip》资料免费下载
    发表于 06-27 11:20 0次下载
    基于DeepSORT <b class='flag-5'>YOLOv</b>4的<b class='flag-5'>目标</b>跟踪

    AI爱克斯开发板上使用OpenVINO加速YOLOv8目标检测模型

    《在AI爱克斯开发板上用OpenVINO加速YOLOv8分类模型》介绍了在AI爱克斯开发板上使用OpenVINO 开发套件部署并测评YOLOv8的分类模型,本文将介绍在AI爱克斯开发板上使用OpenVINO加速YOLOv8
    的头像 发表于 05-26 11:03 719次阅读
    AI爱克斯开发板上使用OpenVINO加速<b class='flag-5'>YOLOv</b>8<b class='flag-5'>目标</b><b class='flag-5'>检测</b>模型

    Yolov5算法解读

    (prediction)。backbone是New CSP-Darknet53。Neck层为SPFF和New CSP-PAN。Head层为Yolov3 head。 yolov5 6.0版本的主要架构如下图所示: 从整体结构图中,我们
    的头像 发表于 05-17 16:38 4314次阅读
    <b class='flag-5'>Yolov</b>5算法解读

    YOLOv8版本升级支持小目标检测与高分辨率图像输入

    YOLOv8版本最近版本又更新了,除了支持姿态评估以外,通过模型结构的修改还支持了小目标检测与高分辨率图像检测。原始的YOLOv8模型结构如
    的头像 发表于 05-16 11:14 9018次阅读
    <b class='flag-5'>YOLOv</b>8版本升级支持小<b class='flag-5'>目标</b><b class='flag-5'>检测</b>与高分辨率图像输入

    在AI爱克斯开发板上用OpenVINO™加速YOLOv8目标检测模型

    《在 AI 爱克斯开发板上用 OpenVINO 加速 YOLOv8 分类模型》介绍了在 AI 爱克斯开发板上使用 OpenVINO 开发套件部署并测评 YOLOv8 的分类模型,本文将介绍在 AI 爱克斯开发板上使用 OpenVINO 加速
    的头像 发表于 05-12 09:08 848次阅读
    在AI爱克斯开发板上用OpenVINO™加速<b class='flag-5'>YOLOv</b>8<b class='flag-5'>目标</b><b class='flag-5'>检测</b>模型