0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何实现基于SSD神经网络构建实时手部检测

zhKF_jqr_AI 来源:未知 作者:佚名 2017-12-22 08:00 次阅读

来源:Victor Dibia编译:weakish

编者按:传统的追踪检测物体方法大多基于规则,面对一些复杂情况时(光照、遮蔽、视角)表现不佳。而快速神经网络的兴起,使神经网络应用于实时物体追踪检测成为可能。IBM研究院研究员(Research Staff Member)Victor Dibia在本月初发文介绍了如何使用Tensorflow框架基于SSD神经网络构建实时手部检测器。

本文记录了使用Tensorflow(Object Detection API)训练一个手部检测器的步骤和代码。我主要感兴趣的是实时检测桌子上的手。我希望本文能够展示如何将神经网络应用于追踪手部(第一人称视角和其他视角),并取得良好的结果。

可以从Github获取所有的代码(包括训练好的模型)。

下图是检测器的实时演示:

和任何基于DNN/CNN的任务一样,流程中成本最高的(也是风险最大的)部分是寻找或创建正确的(标注过的)数据集。我首先尝试了牛津手部数据集进行了实验(结果不好)。我接着尝试了Egohands数据集,这个数据集更符合我的需求(第一人称视角、高质量图像、手部标注)。

一些fps数字:

21 FPS使用320 * 240图像,运行时无可视化结果。

16 FPS使用320 * 240图像,运行时可视化结果

11 FPS使用640 * 480图像,运行时可视化结果(上图)

以上数据是在MacBook ProCPU(i7,2.5GHz,16GB)上测试的结果。

动机——为什么使用神经网络追踪/检测手部?

计算机视觉领域现在有若干追踪方法。凑巧的是,其中许多方法是基于规则的(例如,基于纹理和边界特征来提取背景,使用色彩直方图和HOG分类器来区分手和背景等),因而它们的鲁棒性不是非常好。例如,如果背景不同寻常,或者照明条件的急剧变化导致了肤色的急剧变化或追踪物被遮蔽,这些算法可能会很困惑。(可以参考这篇关于HCI领域估计手部姿态的综述:https://www.cse.unr.edu/~bebis/handposerev.pdf)。

快速移动或者手部角度比较特殊时会出现检测不到的情况

有了足够大的数据集,神经网络提供了训练表现良好的模型的机会,同时应对了现有对象追踪/检测算法的挑战——多样化的/差的照明条件,多化的视角甚至遮蔽。神经网络用于实时跟踪/检测的主要缺陷是,它们可能是很复杂的,与仅作追踪的算法比相对较慢,并且收集一个精良的数据集成本可能相当高。但随着神经网络的快速发展,情况正在改变。

此外,深度学习框架(例如tensorflow的Object Detection API)简化了针对自定义物体检测的模型的训练过程,使这个领域的工作变得更加容易上手。更重要的是,ssd、faster r-cnn、rfcn等快速神经网络模型如ssd,更快的r-cnn,rfcn(见这里)等的出现使神经网络成为实时检测(和追踪)应用的有吸引力的候选者。在HCI领域(如输入设备等),有很多像这样的鲁棒性很强的手部追踪应用。

如果你对训练检测器的过程不感兴趣,你可以直接跳到应用模型检测手部的那节。

噪杂背景和遮蔽

训练模型是一个多阶段过程(汇总数据集、清洗,分割训练、测试集并生成推理图)。虽然我简要描述了这些部分的细节,但还有其他一些教程更详细地介绍如何使用tensorflow Object Detection API。如果对从头开始训练一个定制的检测器感兴趣,我建议你通读这些教程。

Tensorflow的数据预备和网络训练

Egohands数据集

手部检测器模型使用了Egohands数据集中的数据的。这个数据集效果不错的原因有几个。 它包含优质的像素级别标注(> 15000个抠像标注),其中有4800张图像包含手部。所有的图像都是基于第一人称视角(Google glass)拍摄的,这些图像取自48个不同的环境(室内,室外)和活动(玩纸牌,下国际象棋,搭积木,解决谜题等)。如果你将使用Egohands数据集,可以按如下方式引用它:

Bambach, Sven, et al. “Lending a hand: Detecting hands and recognizing activities in complex egocentric interactions.” Proceedings of the IEEE International Conference on Computer Vision. 2015.

Egohands数据集用多边形(白点)圈出了每只手

Egohands数据集(包含标注数据的zip文件)包含48个文件夹,每个文件夹对应于视频采集的地点(每个文件夹包含100张图片)。


— LOCATION_X

— frame_1.jpg

— frame_2.jpg

— frame_100.jpg

— polygons.mat // 标注

— LOCATION_Y

— frame_1.jpg

— frame_2.jpg

— frame_100.jpg

— polygons.mat // 标注

转换数据至Tensorflow格式

首先需要将Egohands数据集转换为适用于Tensorflow的格式(tfrecord)。Github 仓库中包含一个egohands_dataset_clean.py脚本,它可以帮助生成这些csv文件。

下载egohands数据集

重命名所有文件,在文件名中包含其目录名称,以确保每个文件名都是唯一的

将数据集分成训练(80%)和测试(20%)两个文件夹。

读入每个文件夹中的“polygons.mat”,生成包围盒,并将其可视化以确保正确。

一旦脚本运行完毕,你应该有一个包含训练和测试文件夹的图像文件夹。每个文件夹中还应该包含一个用于生成tfrecords的csv标注文件,文件名分别为train_labels.csv和test_labels.csv。

接着,将数据集和csv文件转换为tfrecord。请参考Harrison提供的教程了解如何转换(https://pythonprogramming.net/creating-tfrecord-files-tensorflow-object-detection-api-tutorial/)。如果你在本地训练,这个教程还介绍了如何在本地启动培训进程。如果你使用GCP之类的服务在云端训练,请参考这个教程(https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/running_on_cloud.md)。

注意:虽然egohands数据集为手部提供了四个单独的标签(自己的左手、自己的右手、他人的左手、他人的右手),但本文只对一般的“手”感兴趣,因此上面的脚本将所有的训练数据都标记为“手”。你可以修改训练脚本以生成支持4个标签的tfrecord。

训练手部检测模型

预备好数据集后,接下来的任务就是在这个数据集上训练模型。我们可以使用迁移学习来缩短训练整个模型所需的时间。这意味着我们可以找一个已经在相关的领域(这里是图像分类)训练过的现有模型,并重新训练它最后一层或几层网络来检测手部。棒!考虑到神经网络有时候有几千甚至几百万参数,这些参数可能需要几周或几个月的时间来训练,迁移学习有助于缩短训练时间,可能缩短到几小时。实际上,Tensorflow就提供了一些模型(在tensorflow model zoo),我选择ssd_mobilenet_v1_coco模型作为起点,因为它是目前最快的机型(之一,参见SSD研究论文),训练过程可以在你本地的CPU机器上完成,这可能需要一段时间,或者在(云)GPU机器上训练,这样快很多(我正是这么做的)。作为参考,在我的MacBook Pro(从源码编译tensorflow以充分利用mac的cpu架构的特性)上,我取得的最大训练速度是每步5秒,而在GPU上则是每步 0.5秒。也就是说,在我的mac(i7,2.5GHz,16GB)上运行20万步需要约12天,而在GPU上需要约5小时。

随着训练过程的进展,我预期总损失(错误)会降低到可能的最小值(大约为1或更低)。通过观察tensorboard图形上显示的总损失(见下图),应该可以了解到训练过程何时完成(总损失不会因更多迭代/步骤而下降)。我运行了20万步训练(花了大约5小时),在总损失(错误)值2.575处停止训练。(现在反思一下,我本可以在大约5万步处停止训练,总损失值也差不多)。使用tensorflow,你还可以并发运行评估,评估你的模型在测试数据上的表现。衡量表现的常用指标是平均精确率(mean average precision,mAP),它是一个总结精度-召回曲线下面积的数字。mAP是衡量模型表现的度量,模型的表现指生成与我们的测试数据集中的抠像包围盒至少有50%重叠区域的包围盒。对于这里训练的手部检测器,mAP值为0.9686@0.5IOU。mAP取值范围为0-1,越高越好。

最终的损失值为2.275,mAP为0.9686

训练完成后,导出训练好的推理图(frozen_inference_graph.pb)(具体步骤参见前文提到的教程),将其保存在hand_inference_graph文件夹中。现在是时候做一些有趣的检测了。

使用检测器检测和追踪手部

将检测器应用到Youtube视频

如果你还没有安装好Tensorflow,请依照这个教程安装Tensorflow及其object detection api(https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/installation.md)。

检测手部的一般步骤如下:

加载frozen_inference_graph.pb

读取输入图像(来自实时视频流、视频文件或静态图像)

检测手部并可视化包围盒

GitHub仓库中有两个脚本,整合了以上步骤:

detect_multi_threaded.py:读取摄像头视频输入并进行检测的多线程实现。

detect_single_threaded.py: 和上面的脚本一样,只不过它是单线程的。适用于视频文件。

最重要的,代码仓库中的frozen_inference_graph.pb包含了一个基于SSD训练好的模型,你能很容易地将它导入你的tensorflow应用来检测手部。

一些优化的想法

显著提升表现的因素:

线程:从摄像头读取图像是一个负担很重的I/O事件,如果在主应用线程上运行它,可能会减慢程序。我实现了Adrian Rosebuck的一些在多个工作线程上并行捕捉图像的好想法。基本上,这增加了约5 FPS。

新接触OpenCV的人可能没考虑到cv2.read()方法返回BGR格式的图像。 确保在检测之前将其转换为RGB(否则的话,精确率会大大降低)。

保证你的输入图像使用较小的尺寸将增加fps,同时不会带来任何显著的精确率下降(我使用了约320×240的图像,而不是我的摄像头默认提供的1280×720图像)。

组合效果不错的追踪算法也能提升表现,我仍在尝试这方面的优化。如果你有优化的想法,欢迎分享!

有很多手的随机图片显示了检测器的一些局限

注意:检测器确实反映了与训练集相关的一些限制。包括非第一人称视角、非常嘈杂的背景(手山手海),有时甚至是肤色。使用更多的数据有机会改善这方面的表现。

集成多DNN

让事情变得更有趣的一种方式是将我们对“手”的位置的新知识与经训练用于识别其他物体的检测器整合起来。不幸的是,虽然我们的手部检测器确实可以检测到手部,但它不能检测到其他物体。 要创建一个可以分类多个不同对象的检测器,意味着要为每个类预备一个数据集并进行训练,这一过程将十分漫长。

因此,一个潜在的替代策略是探索允许我们高效地交错用于多种物体的多个预训练模型的结构,并让它们检测单个图像上的多个物体。

举例来说,我有兴趣了解桌子上的物体相对于同一张桌子上的手的位置。我目前正在研发一个多线程应用,该应用加载多个检测器,在一张图像上输出多个包围盒。很快我会在后续的文章中介绍这方面的内容。

致谢

这个成果对我而言也是一次紧张的学习Python和Tensorflow的周末课程。没有Egohands数据集的话,这一切都是不可能的,非常感谢作者们![Harrison][pythongramming]和Dat Tran的tensorflow自定义对象检测教程对这个学习过程极有帮助。当然,非常感谢Tensorflow的作者们!它是一个很棒的框架!

引用本教程

如果你打算引用本教程:

Victor Dibia, Real-time Hand-Detection using Neural Networks (SSD) on Tensorflow, (2017), GitHub repository。


@misc{Dibia2017,

author = {Victor, Dibia},

title = {Real-time HandTrackingUsing SSD on Tensorflow },

year = {2017},

publisher = {GitHub},

journal = {GitHub repository},

howpublished = {url{https://github.com/victordibia/handtracking}},

commit = {b523a27393ea1ee34f31451fad656849915c8f42}

}

欢迎通过Twitter、Github和Linkedin与作者交流。

参考文献

Bambach, S., Lee, S., Crandall, D. J., and Yu, C. 2015.“Lending A Hand: Detecting Hands and Recognizing Activities in Complex Egocentric Interactions,”in ICCV, pp. 1949–1957

Erol, A., Bebis, G., Nicolescu, M., Boyle, R. D., and Twombly, X. 2007. “Vision-based hand pose estimation: A review,” Computer Vision and Image Understanding (108:1–2), pp. 52–73 (doi: 10.1016/j.cviu.2006.10.012).

Liu, W., Anguelov, D., Erhan, D., Szegedy, C., Reed, S., Fu, C. Y., and Berg, A. C. 2016. “SSD: Single shot multibox detector,” in European conference on computer vision (Vol. 9905 LNCS), Springer Cham, pp. 21–37 (doi: 10.1007/978-3-319-46448-0_2).

Betancourt, A., Morerio, P., Regazzoni, C. S., and Rauterberg, M. 2015. “The Evolution of First Person Vision Methods: A Survey,” IEEE Transactions on Circuits and Systems for Video Technology (25:5), pp. 744–760 (doi: 10.1109/TCSVT.2015.2409731)

GitHub地址:https://github.com/victordibia/handtracking

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4562

    浏览量

    98646
  • SSD
    SSD
    +关注

    关注

    20

    文章

    2684

    浏览量

    115418
  • tensorflow
    +关注

    关注

    13

    文章

    313

    浏览量

    60241

原文标题:基于SSD神经网络实时检测手部

文章出处:【微信号:jqr_AI,微信公众号:论智】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    实现图像识别神经网络的步骤

    我们的下一个任务是使用先前标记的图像来训练神经网络,以对新的测试图像进行分类。因此,我们将使用nn模块来构建我们的神经网络
    的头像 发表于 01-22 10:01 420次阅读
    <b class='flag-5'>实现</b>图像识别<b class='flag-5'>神经网络</b>的步骤

    《 AI加速器架构设计与实现》+第一章卷积神经网络观后感

    《 AI加速器架构设计与实现》+第一章卷积神经网络观感    在本书的引言中也提到“一图胜千言”,读完第一章节后,对其进行了一些归纳(如图1),第一章对常见的神经网络结构进行了介绍,举例了一些结构
    发表于 09-11 20:34

    构建神经网络模型的常用方法 神经网络模型的常用算法介绍

    神经网络模型是一种通过模拟生物神经元间相互作用的方式实现信息处理和学习的计算机模型。它能够对输入数据进行分类、回归、预测和聚类等任务,已经广泛应用于计算机视觉、自然语言处理、语音处理等领域。下面将就
    发表于 08-28 18:25 612次阅读

    人工神经网络和bp神经网络的区别

    人工神经网络和bp神经网络的区别  人工神经网络(Artificial Neural Network, ANN)是一种模仿人脑神经元网络结构和功能的计算模型,也被称为
    的头像 发表于 08-22 16:45 3406次阅读

    卷积神经网络和深度神经网络的优缺点 卷积神经网络和深度神经网络的区别

    深度神经网络是一种基于神经网络的机器学习算法,其主要特点是由多层神经元构成,可以根据数据自动调整神经元之间的权重,从而实现对大规模数据进行预
    发表于 08-21 17:07 2225次阅读

    卷积神经网络的介绍 什么是卷积神经网络算法

    卷积神经网络的介绍 什么是卷积神经网络算法 卷积神经网络涉及的关键技术 卷积神经网络(Convolutional Neural Network,CNN)是一种用于图像分类、物体识别、语
    的头像 发表于 08-21 16:49 1406次阅读

    卷积神经网络层级结构 卷积神经网络的卷积层讲解

    像分类、目标检测、人脸识别等。卷积神经网络的核心是卷积层和池化层,它们构成了网络的主干,实现了对图像特征的提取和抽象。 一、卷积神经网络的层
    的头像 发表于 08-21 16:49 4247次阅读

    卷积神经网络的基本原理 卷积神经网络发展 卷积神经网络三大特点

    卷积神经网络的基本原理 卷积神经网络发展历程 卷积神经网络三大特点  卷积神经网络的基本原理 卷积神经网络(Convolutional Ne
    的头像 发表于 08-21 16:49 1415次阅读

    卷积神经网络三大特点

    是一种基于图像处理的神经网络,它模仿人类视觉结构中的神经元组成,对图像进行处理和学习。在图像处理中,通常将图像看作是二维矩阵,即每个像素点都有其对应的坐标和像素值。卷积神经网络采用卷积操作实现
    的头像 发表于 08-21 16:49 3455次阅读

    卷积神经网络的工作原理 卷积神经网络通俗解释

    。CNN可以帮助人们实现许多有趣的任务,如图像分类、物体检测、语音识别、自然语言处理和视频分析等。本文将详细介绍卷积神经网络的工作原理并用通俗易懂的语言解释。 1.概述 卷积神经网络
    的头像 发表于 08-21 16:49 2689次阅读

    卷积神经网络的应用 卷积神经网络通常用来处理什么

    卷积神经网络的应用 卷积神经网络通常用来处理什么 卷积神经网络(Convolutional Neural Network,简称CNN)是一种在神经网络领域内广泛应用的
    的头像 发表于 08-21 16:41 3894次阅读

    卷积神经网络原理:卷积神经网络模型和卷积神经网络算法

    卷积神经网络原理:卷积神经网络模型和卷积神经网络算法 卷积神经网络(Convolutional Neural Network,CNN)是一种基于深度学习的人工
    的头像 发表于 08-17 16:30 889次阅读

    什么是神经网络?为什么说神经网络很重要?神经网络如何工作?

    神经网络是一个具有相连节点层的计算模型,其分层结构与大脑中的神经元网络结构相似。神经网络可通过数据进行学习,因此,可训练其识别模式、对数据分类和预测未来事件。
    的头像 发表于 07-26 18:28 1879次阅读
    什么是<b class='flag-5'>神经网络</b>?为什么说<b class='flag-5'>神经网络</b>很重要?<b class='flag-5'>神经网络</b>如何工作?

    手写数字识别神经网络实现(1)

    对MNIST数据集使用2层神经网络(1层隐藏层)实现
    的头像 发表于 06-23 16:57 301次阅读
    手写数字识别<b class='flag-5'>神经网络</b>的<b class='flag-5'>实现</b>(1)

    三个最流行神经网络

    在本文中,我们将了解深度神经网络的基础知识和三个最流行神经网络:多层神经网络(MLP),卷积神经网络(CNN)和递归神经网络(RNN)。
    发表于 05-15 14:19 1171次阅读
    三个最流行<b class='flag-5'>神经网络</b>