0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何实现基于SSD神经网络构建实时手部检测

zhKF_jqr_AI 来源:未知 作者:佚名 2017-12-22 08:00 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

来源:Victor Dibia编译:weakish

编者按:传统的追踪检测物体方法大多基于规则,面对一些复杂情况时(光照、遮蔽、视角)表现不佳。而快速神经网络的兴起,使神经网络应用于实时物体追踪检测成为可能。IBM研究院研究员(Research Staff Member)Victor Dibia在本月初发文介绍了如何使用Tensorflow框架基于SSD神经网络构建实时手部检测器。

本文记录了使用Tensorflow(Object Detection API)训练一个手部检测器的步骤和代码。我主要感兴趣的是实时检测桌子上的手。我希望本文能够展示如何将神经网络应用于追踪手部(第一人称视角和其他视角),并取得良好的结果。

可以从Github获取所有的代码(包括训练好的模型)。

下图是检测器的实时演示:

和任何基于DNN/CNN的任务一样,流程中成本最高的(也是风险最大的)部分是寻找或创建正确的(标注过的)数据集。我首先尝试了牛津手部数据集进行了实验(结果不好)。我接着尝试了Egohands数据集,这个数据集更符合我的需求(第一人称视角、高质量图像、手部标注)。

一些fps数字:

21 FPS使用320 * 240图像,运行时无可视化结果。

16 FPS使用320 * 240图像,运行时可视化结果

11 FPS使用640 * 480图像,运行时可视化结果(上图)

以上数据是在MacBook ProCPU(i7,2.5GHz,16GB)上测试的结果。

动机——为什么使用神经网络追踪/检测手部?

计算机视觉领域现在有若干追踪方法。凑巧的是,其中许多方法是基于规则的(例如,基于纹理和边界特征来提取背景,使用色彩直方图和HOG分类器来区分手和背景等),因而它们的鲁棒性不是非常好。例如,如果背景不同寻常,或者照明条件的急剧变化导致了肤色的急剧变化或追踪物被遮蔽,这些算法可能会很困惑。(可以参考这篇关于HCI领域估计手部姿态的综述:https://www.cse.unr.edu/~bebis/handposerev.pdf)。

快速移动或者手部角度比较特殊时会出现检测不到的情况

有了足够大的数据集,神经网络提供了训练表现良好的模型的机会,同时应对了现有对象追踪/检测算法的挑战——多样化的/差的照明条件,多化的视角甚至遮蔽。神经网络用于实时跟踪/检测的主要缺陷是,它们可能是很复杂的,与仅作追踪的算法比相对较慢,并且收集一个精良的数据集成本可能相当高。但随着神经网络的快速发展,情况正在改变。

此外,深度学习框架(例如tensorflow的Object Detection API)简化了针对自定义物体检测的模型的训练过程,使这个领域的工作变得更加容易上手。更重要的是,ssd、faster r-cnn、rfcn等快速神经网络模型如ssd,更快的r-cnn,rfcn(见这里)等的出现使神经网络成为实时检测(和追踪)应用的有吸引力的候选者。在HCI领域(如输入设备等),有很多像这样的鲁棒性很强的手部追踪应用。

如果你对训练检测器的过程不感兴趣,你可以直接跳到应用模型检测手部的那节。

噪杂背景和遮蔽

训练模型是一个多阶段过程(汇总数据集、清洗,分割训练、测试集并生成推理图)。虽然我简要描述了这些部分的细节,但还有其他一些教程更详细地介绍如何使用tensorflow Object Detection API。如果对从头开始训练一个定制的检测器感兴趣,我建议你通读这些教程。

Tensorflow的数据预备和网络训练

Egohands数据集

手部检测器模型使用了Egohands数据集中的数据的。这个数据集效果不错的原因有几个。 它包含优质的像素级别标注(> 15000个抠像标注),其中有4800张图像包含手部。所有的图像都是基于第一人称视角(Google glass)拍摄的,这些图像取自48个不同的环境(室内,室外)和活动(玩纸牌,下国际象棋,搭积木,解决谜题等)。如果你将使用Egohands数据集,可以按如下方式引用它:

Bambach, Sven, et al. “Lending a hand: Detecting hands and recognizing activities in complex egocentric interactions.” Proceedings of the IEEE International Conference on Computer Vision. 2015.

Egohands数据集用多边形(白点)圈出了每只手

Egohands数据集(包含标注数据的zip文件)包含48个文件夹,每个文件夹对应于视频采集的地点(每个文件夹包含100张图片)。


— LOCATION_X

— frame_1.jpg

— frame_2.jpg

— frame_100.jpg

— polygons.mat // 标注

— LOCATION_Y

— frame_1.jpg

— frame_2.jpg

— frame_100.jpg

— polygons.mat // 标注

转换数据至Tensorflow格式

首先需要将Egohands数据集转换为适用于Tensorflow的格式(tfrecord)。Github 仓库中包含一个egohands_dataset_clean.py脚本,它可以帮助生成这些csv文件。

下载egohands数据集

重命名所有文件,在文件名中包含其目录名称,以确保每个文件名都是唯一的

将数据集分成训练(80%)和测试(20%)两个文件夹。

读入每个文件夹中的“polygons.mat”,生成包围盒,并将其可视化以确保正确。

一旦脚本运行完毕,你应该有一个包含训练和测试文件夹的图像文件夹。每个文件夹中还应该包含一个用于生成tfrecords的csv标注文件,文件名分别为train_labels.csv和test_labels.csv。

接着,将数据集和csv文件转换为tfrecord。请参考Harrison提供的教程了解如何转换(https://pythonprogramming.net/creating-tfrecord-files-tensorflow-object-detection-api-tutorial/)。如果你在本地训练,这个教程还介绍了如何在本地启动培训进程。如果你使用GCP之类的服务在云端训练,请参考这个教程(https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/running_on_cloud.md)。

注意:虽然egohands数据集为手部提供了四个单独的标签(自己的左手、自己的右手、他人的左手、他人的右手),但本文只对一般的“手”感兴趣,因此上面的脚本将所有的训练数据都标记为“手”。你可以修改训练脚本以生成支持4个标签的tfrecord。

训练手部检测模型

预备好数据集后,接下来的任务就是在这个数据集上训练模型。我们可以使用迁移学习来缩短训练整个模型所需的时间。这意味着我们可以找一个已经在相关的领域(这里是图像分类)训练过的现有模型,并重新训练它最后一层或几层网络来检测手部。棒!考虑到神经网络有时候有几千甚至几百万参数,这些参数可能需要几周或几个月的时间来训练,迁移学习有助于缩短训练时间,可能缩短到几小时。实际上,Tensorflow就提供了一些模型(在tensorflow model zoo),我选择ssd_mobilenet_v1_coco模型作为起点,因为它是目前最快的机型(之一,参见SSD研究论文),训练过程可以在你本地的CPU机器上完成,这可能需要一段时间,或者在(云)GPU机器上训练,这样快很多(我正是这么做的)。作为参考,在我的MacBook Pro(从源码编译tensorflow以充分利用mac的cpu架构的特性)上,我取得的最大训练速度是每步5秒,而在GPU上则是每步 0.5秒。也就是说,在我的mac(i7,2.5GHz,16GB)上运行20万步需要约12天,而在GPU上需要约5小时。

随着训练过程的进展,我预期总损失(错误)会降低到可能的最小值(大约为1或更低)。通过观察tensorboard图形上显示的总损失(见下图),应该可以了解到训练过程何时完成(总损失不会因更多迭代/步骤而下降)。我运行了20万步训练(花了大约5小时),在总损失(错误)值2.575处停止训练。(现在反思一下,我本可以在大约5万步处停止训练,总损失值也差不多)。使用tensorflow,你还可以并发运行评估,评估你的模型在测试数据上的表现。衡量表现的常用指标是平均精确率(mean average precision,mAP),它是一个总结精度-召回曲线下面积的数字。mAP是衡量模型表现的度量,模型的表现指生成与我们的测试数据集中的抠像包围盒至少有50%重叠区域的包围盒。对于这里训练的手部检测器,mAP值为0.9686@0.5IOU。mAP取值范围为0-1,越高越好。

最终的损失值为2.275,mAP为0.9686

训练完成后,导出训练好的推理图(frozen_inference_graph.pb)(具体步骤参见前文提到的教程),将其保存在hand_inference_graph文件夹中。现在是时候做一些有趣的检测了。

使用检测器检测和追踪手部

将检测器应用到Youtube视频

如果你还没有安装好Tensorflow,请依照这个教程安装Tensorflow及其object detection api(https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/installation.md)。

检测手部的一般步骤如下:

加载frozen_inference_graph.pb

读取输入图像(来自实时视频流、视频文件或静态图像)

检测手部并可视化包围盒

GitHub仓库中有两个脚本,整合了以上步骤:

detect_multi_threaded.py:读取摄像头视频输入并进行检测的多线程实现。

detect_single_threaded.py: 和上面的脚本一样,只不过它是单线程的。适用于视频文件。

最重要的,代码仓库中的frozen_inference_graph.pb包含了一个基于SSD训练好的模型,你能很容易地将它导入你的tensorflow应用来检测手部。

一些优化的想法

显著提升表现的因素:

线程:从摄像头读取图像是一个负担很重的I/O事件,如果在主应用线程上运行它,可能会减慢程序。我实现了Adrian Rosebuck的一些在多个工作线程上并行捕捉图像的好想法。基本上,这增加了约5 FPS。

新接触OpenCV的人可能没考虑到cv2.read()方法返回BGR格式的图像。 确保在检测之前将其转换为RGB(否则的话,精确率会大大降低)。

保证你的输入图像使用较小的尺寸将增加fps,同时不会带来任何显著的精确率下降(我使用了约320×240的图像,而不是我的摄像头默认提供的1280×720图像)。

组合效果不错的追踪算法也能提升表现,我仍在尝试这方面的优化。如果你有优化的想法,欢迎分享!

有很多手的随机图片显示了检测器的一些局限

注意:检测器确实反映了与训练集相关的一些限制。包括非第一人称视角、非常嘈杂的背景(手山手海),有时甚至是肤色。使用更多的数据有机会改善这方面的表现。

集成多DNN

让事情变得更有趣的一种方式是将我们对“手”的位置的新知识与经训练用于识别其他物体的检测器整合起来。不幸的是,虽然我们的手部检测器确实可以检测到手部,但它不能检测到其他物体。 要创建一个可以分类多个不同对象的检测器,意味着要为每个类预备一个数据集并进行训练,这一过程将十分漫长。

因此,一个潜在的替代策略是探索允许我们高效地交错用于多种物体的多个预训练模型的结构,并让它们检测单个图像上的多个物体。

举例来说,我有兴趣了解桌子上的物体相对于同一张桌子上的手的位置。我目前正在研发一个多线程应用,该应用加载多个检测器,在一张图像上输出多个包围盒。很快我会在后续的文章中介绍这方面的内容。

致谢

这个成果对我而言也是一次紧张的学习Python和Tensorflow的周末课程。没有Egohands数据集的话,这一切都是不可能的,非常感谢作者们![Harrison][pythongramming]和Dat Tran的tensorflow自定义对象检测教程对这个学习过程极有帮助。当然,非常感谢Tensorflow的作者们!它是一个很棒的框架!

引用本教程

如果你打算引用本教程:

Victor Dibia, Real-time Hand-Detection using Neural Networks (SSD) on Tensorflow, (2017), GitHub repository。


@misc{Dibia2017,

author = {Victor, Dibia},

title = {Real-time HandTrackingUsing SSD on Tensorflow },

year = {2017},

publisher = {GitHub},

journal = {GitHub repository},

howpublished = {url{https://github.com/victordibia/handtracking}},

commit = {b523a27393ea1ee34f31451fad656849915c8f42}

}

欢迎通过Twitter、Github和Linkedin与作者交流。

参考文献

Bambach, S., Lee, S., Crandall, D. J., and Yu, C. 2015.“Lending A Hand: Detecting Hands and Recognizing Activities in Complex Egocentric Interactions,”in ICCV, pp. 1949–1957

Erol, A., Bebis, G., Nicolescu, M., Boyle, R. D., and Twombly, X. 2007. “Vision-based hand pose estimation: A review,” Computer Vision and Image Understanding (108:1–2), pp. 52–73 (doi: 10.1016/j.cviu.2006.10.012).

Liu, W., Anguelov, D., Erhan, D., Szegedy, C., Reed, S., Fu, C. Y., and Berg, A. C. 2016. “SSD: Single shot multibox detector,” in European conference on computer vision (Vol. 9905 LNCS), Springer Cham, pp. 21–37 (doi: 10.1007/978-3-319-46448-0_2).

Betancourt, A., Morerio, P., Regazzoni, C. S., and Rauterberg, M. 2015. “The Evolution of First Person Vision Methods: A Survey,” IEEE Transactions on Circuits and Systems for Video Technology (25:5), pp. 744–760 (doi: 10.1109/TCSVT.2015.2409731)

GitHub地址:https://github.com/victordibia/handtracking

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4827

    浏览量

    106802
  • SSD
    SSD
    +关注

    关注

    21

    文章

    3061

    浏览量

    121789
  • tensorflow
    +关注

    关注

    13

    文章

    331

    浏览量

    61857

原文标题:基于SSD神经网络实时检测手部

文章出处:【微信号:jqr_AI,微信公众号:论智】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    NMSIS神经网络库使用介绍

    NMSIS NN 软件库是一组高效的神经网络内核,旨在最大限度地提高 Nuclei N 处理器内核上的神经网络的性能并最​​大限度地减少其内存占用。 该库分为多个功能,每个功能涵盖特定类别
    发表于 10-29 06:08

    构建CNN网络模型并优化的一般化建议

    通过实践,本文总结了构建CNN网络模型并优化的一般化建议,这些建议将会在构建高准确率轻量级CNN神经网络模型方面提供帮助。 1)避免单层神经网络
    发表于 10-28 08:02

    在Ubuntu20.04系统中训练神经网络模型的一些经验

    构建卷积神经网络模型 model = models.Sequential()model.add(layers.Conv2D(input_shape=(28, 28, 1), filters=4
    发表于 10-22 07:03

    液态神经网络(LNN):时间连续性与动态适应性的神经网络

    1.算法简介液态神经网络(LiquidNeuralNetworks,LNN)是一种新型的神经网络架构,其设计理念借鉴自生物神经系统,特别是秀丽隐杆线虫的神经结构,尽管这种微生物的
    的头像 发表于 09-28 10:03 707次阅读
    液态<b class='flag-5'>神经网络</b>(LNN):时间连续性与动态适应性的<b class='flag-5'>神经网络</b>

    无刷电机小波神经网络转子位置检测方法的研究

    摘要:论文通过对无刷电机数学模型的推导,得出转角:与三相相电压之间存在映射关系,因此构建了一个以三相相电压为输人,转角为输出的小波神经网络实现转角预测,并采用改进遗传算法来训练网络
    发表于 06-25 13:06

    神经网络压缩框架 (NNCF) 中的过滤器修剪统计数据怎么查看?

    无法观察神经网络压缩框架 (NNCF) 中的过滤器修剪统计数据
    发表于 03-06 07:10

    BP神经网络与卷积神经网络的比较

    BP神经网络与卷积神经网络在多个方面存在显著差异,以下是对两者的比较: 一、结构特点 BP神经网络 : BP神经网络是一种多层的前馈神经网络
    的头像 发表于 02-12 15:53 1311次阅读

    BP神经网络实现步骤详解

    BP神经网络实现步骤主要包括以下几个阶段:网络初始化、前向传播、误差计算、反向传播和权重更新。以下是对这些步骤的详细解释: 一、网络初始化 确定
    的头像 发表于 02-12 15:50 1121次阅读

    BP神经网络的优缺点分析

    自学习能力 : BP神经网络能够通过训练数据自动调整网络参数,实现对输入数据的分类、回归等任务,无需人工进行复杂的特征工程。 泛化能力强 : BP神经网络通过训练数据学习到的特征表示
    的头像 发表于 02-12 15:36 1591次阅读

    什么是BP神经网络的反向传播算法

    BP神经网络的反向传播算法(Backpropagation Algorithm)是一种用于训练神经网络的有效方法。以下是关于BP神经网络的反向传播算法的介绍: 一、基本概念 反向传播算法是BP
    的头像 发表于 02-12 15:18 1278次阅读

    BP神经网络与深度学习的关系

    BP神经网络与深度学习之间存在着密切的关系,以下是对它们之间关系的介绍: 一、BP神经网络的基本概念 BP神经网络,即反向传播神经网络(Backpropagation Neural N
    的头像 发表于 02-12 15:15 1341次阅读

    BP神经网络的基本原理

    BP神经网络(Back Propagation Neural Network)的基本原理涉及前向传播和反向传播两个核心过程。以下是关于BP神经网络基本原理的介绍: 一、网络结构 BP神经网络
    的头像 发表于 02-12 15:13 1521次阅读

    BP神经网络在图像识别中的应用

    BP神经网络在图像识别中发挥着重要作用,其多层结构使得网络能够学习到复杂的特征表达,适用于处理非线性问题。以下是对BP神经网络在图像识别中应用的分析: 一、BP神经网络基本原理 BP
    的头像 发表于 02-12 15:12 1188次阅读

    深度学习入门:简单神经网络构建实现

    深度学习中,神经网络是核心模型。今天我们用 Python 和 NumPy 构建一个简单的神经网络神经网络由多个神经元组成,
    的头像 发表于 01-23 13:52 846次阅读

    人工神经网络的原理和多种神经网络架构方法

    在上一篇文章中,我们介绍了传统机器学习的基础知识和多种算法。在本文中,我们会介绍人工神经网络的原理和多种神经网络架构方法,供各位老师选择。 01 人工神经网络   人工神经网络模型之所
    的头像 发表于 01-09 10:24 2256次阅读
    人工<b class='flag-5'>神经网络</b>的原理和多种<b class='flag-5'>神经网络</b>架构方法