0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于视觉的机器人抓取系统

新机器视觉 来源:CSDN 作者:ljc_coder 2022-05-07 15:38 次阅读

0

导读

抓取综合方法是机器人抓取问题的核心,本文从抓取检测、视觉伺服和动态抓取等角度进行讨论,提出了多种抓取方法。各位对机器人识别抓取感兴趣的小伙伴,一定要来看一看!千万别错过~

/ contents

1. 引言

1.1抓取综合方法

1.2 基于视觉的机器人抓取系统

2. 抓取检测、视觉伺服和动态抓取

2.1抓取检测

2.2 视觉伺服控制

2.3动态抓取

3. 本文实现的方法

3.1网络体系结构

3.2 Cornell 抓取数据集

3.3 结果评估

3.4视觉伺服网络体系结构

3.5VS数据集

54164836-cd42-11ec-bce3-dac502259ad0.png

1

引言

找到理想抓取配置的抓取假设的子集包括:机器人将执行的任务类型、目标物体的特征、关于物体的先验知识类型、机械爪类型,以及最后的抓取合成。

注:从本文中可以学习到视觉伺服的相关内容,用于对动态目标的跟踪抓取或自动调整观察姿态。因为观察的角度不同,预测的抓取框位置也不同:抓取物品离相机位置越近,抓取预测越准。

1.1

抓取综合方法

抓取综合方法是机器人抓取问题的核心,因为它涉及到在物体中寻找最佳抓取点的任务。这些是夹持器必须与物体接触的点,以确保外力的作用不会导致物体不稳定,并满足一组抓取任务的相关标准。

抓取综合方法通常可分为分析法和基于数据的方法。

分析法是指使用具有特定动力学行为的灵巧且稳定的多指手构造力闭合

基于数据的方法指建立在按某种标准的条件下,对抓取候选对象的搜索和对象分类的基础上。(这一过程往往需要一些先验经验)

1.2

基于视觉的机器人抓取系统

基于视觉的机器人抓取系统一般由四个主要步骤组成,即目标物体定位、物体姿态估计、抓取检测(合成)和抓取规划。

一个基于卷积神经网络的系统,一般可以同时执行前三个步骤,该系统接收对象的图像作为输入,并预测抓取矩形作为输出。

而抓取规划阶段,即机械手找到目标的最佳路径。它应该能够适应工作空间的变化,并考虑动态对象,使用视觉反馈。

目前大多数机器人抓取任务的方法执行一次性抓取检测,无法响应环境的变化。因此,在抓取系统中插入视觉反馈是可取的,因为它使抓取系统对感知噪声、物体运动和运动学误差具有鲁棒性。

2

抓取检测、视觉伺服和动态抓取

抓取计划分两步执行:

首先作为一个视觉伺服控制器,以反应性地适应对象姿势的变化。

其次,作为机器人逆运动学的一个内部问题,除了与奇异性相关的限制外,机器人对物体的运动没有任何限制。

2.1

抓取检测

早期的抓取检测方法一般为分析法,依赖于被抓取物体的几何结构,在执行时间和力估计方面存在许多问题。

此外,它们在许多方面都不同于基于数据的方法。

基于数据的方法:Jiang、Moseson和Saxena等人仅使用图像,从五个维度提出了机器人抓取器闭合前的位置和方向表示。

如下图,该五维表示足以对抓取姿势的七维表示进行编码[16],因为假定图像平面的法线近似。因此,三维方向仅由给出。

5430f10e-cd42-11ec-bce3-dac502259ad0.png

本文的工作重点是开发一种简单高效的CNN,用于预测抓取矩形。

在训练和测试步骤中,所提出的网络足够轻,可以联合应用第二个CNN,解决视觉伺服控制任务。因此,整个系统可以在机器人应用中实时执行,而不会降低两项任务的精度。

2.2

视觉伺服控制

经典的视觉伺服(VS)策略要求提取视觉特征作为控制律的输入。我们必须正确选择这些特征,因为控制的鲁棒性与此选择直接相关。

最新的VS技术探索了深度学习算法,以同时克服特征提取和跟踪、泛化、系统的先验知识以及在某些情况下处理时间等问题。

Zhang等人开发了第一项工作,证明了在没有任何配置先验知识的情况下,从原始像素图像生成控制器的可能性。作者使用Deep Q-Network ,通过深度视觉运动策略控制机器人的3个关节,执行到达目标的任务。训练是在模拟中进行的,没有遇到真实的图像。

遵循强化学习方法的工作使用确定性策略梯度设计新的基于图像的VS或Fuzzy Q-Learning,依靠特征提取,控制多转子空中机器人。

在另一种方法中,一些研究视觉伺服深度学习的工作是通过卷积神经网络进行的。CNN的泛化能力优于RL,因为RL学习的参数是特定于环境和任务的。

本文设计了四种卷积神经网络模型作为端到端视觉伺服控制器的潜在候选。网络不使用参考图像和当前图像以外的任何类型的附加信息来回归控制信号

因此,所提出的网络作为实际上的控制器工作,预测速度信号,而不是相对姿态。

2.3

动态抓取

学习感知行为的视觉表征,遵循反应范式,直接从感觉输入生成控制信号,无需高级推理,有助于动态抓取。

强化学习方法适用于特定类型的对象,并且仍然依赖于某种先验知识,因此,最近大量研究探索了将深度学习作为解决闭环抓取问题的方法。

Levine等人提出了一种基于两个组件的抓取系统。第一部分是预测CNN,其接收图像和运动命令作为输入,并输出通过执行这样的命令,所产生的抓取将是令人满意的概率。第二个部分是视觉伺服功能。这将使用预测CNN来选择将持续控制机器人成功抓取的命令。这称为是深度强化学习,需要很久的训练时间。

2019年,Morrison, Corke 和 Leitner 开发了一种闭环抓取系统,在这种系统中,抓取检测和视觉伺服不是同时学习的。作者使用完全CNN获取抓取点,并应用基于位置的视觉伺服,使抓取器的姿势与预测的抓取姿势相匹配。

3

本文实现的方法

VS的目的是通过将相机连续获得的图像与参考图像进行比较,引导操纵器到达机器人能够完全看到物体的位置,从而满足抓取检测条件。因此,该方法的应用涵盖了所有情况,其中机器人操作器(相机安装在手眼模式下)必须跟踪和抓取对象。

该系统包括三个阶段:设计阶段、测试阶段和运行阶段。第一个是基于CNN架构的设计和训练,以及数据集的收集和处理。在第二阶段,使用验证集获得离线结果,并根据其准确性、速度和应用领域进行评估。第三阶段涉及在机器人上测试经过训练的网络,以评估其在实时和现实应用中的充分性。

在运行阶段,系统运行的要求是事先获得目标对象的图像,该图像将被VS用作设定点。只要控制信号的L1范数大于某个阈值,则执行控制回路。

54611fc8-cd42-11ec-bce3-dac502259ad0.png

单个参考图像作为视觉伺服CNN的输入之一呈现给系统。相机当前获取的图像作为该网络的第二个输入,并作为抓取CNN的输入。这两个网络都连续运行,因为抓取CNN实时预测矩形以进行监控,VS网络执行机器人姿势的实时控制。

VS CNN预测一个速度信号,该信号乘以比例增益,以应用于相机中。机器人的内部控制器寻找保证相机中预测速度的关节速度。在每次循环执行时,根据机器人的当前位置更新当前图像,只要控制信号不收敛,该循环就会重复。

当满足停止条件时,抓取网络的预测映射到世界坐标系。机器人通过逆运动学得到并到达预测点,然后关闭夹持器。

3.1

网络体系结构

5475b3b6-cd42-11ec-bce3-dac502259ad0.png

该卷积网络架构被用于抓取检测。网络接收224×224×3的RGB图像作为输入,无深度信息。

layer 1 由32个3×3卷积组成,layer 2 包含164个卷积。在这两种情况下,卷积运算都是通过步长2和零填充(zero-padding)执行的,然后是批标准化(batch normalization)和2×2最大池化。layer 3 包含96个卷积,其中卷积使用步长1和零填充执行,然后仅执行批标准化。layer 4 ,也是最后一层,卷积层由128个卷积组成,以步长1执行,然后是2×2最大池化。

在最后一层卷积之后,生成的特征映射在包含4608个元素的一维向量中被展开,进一步传递到两个全连接(FC)层,每个层有256个神经元。在这些层次之间,训练期间考虑50%的dropout rate。

最后,输出层由5个神经元组成,对应于编码抓取矩形的**值。在所有层中,使用的激活函数都是ReLU**,但在输出层中使用线性函数的情况除外。

3.2

Cornell 抓取数据集

为了对数据集真值进行编码,使用四个顶点的和坐标编译抓取矩形。

54d16eea-cd42-11ec-bce3-dac502259ad0.png

和参数分别表示矩形中心点的和坐标,可从以下公式获得:

54e82e28-cd42-11ec-bce3-dac502259ad0.png

计算夹持器开口和高度,同样根据四个顶点计算:

5520b98c-cd42-11ec-bce3-dac502259ad0.png

最后,表示夹持器相对于水平轴方向的由下式给出:

5533c90a-cd42-11ec-bce3-dac502259ad0.png

3.3

结果评估

预测矩形()和真值矩形()之间的角度差必须在30度以内。

雅卡尔指数(交并比)需要大于0.25,而不是像一般那样“达到0.25即可”。

3.4

视觉伺服网络体系结构

与抓取不同,设计用于执行机械手视觉伺服控制的网络接收两个图像作为输入,并且必须回归六个值,考虑到线性和角度相机速度。

这些值也可以分为两个输出,共有四个模型处理VS任务。

模型1-直接回归(最终实验效果最佳)。它基本上与抓取网络相同,除了在第三卷积层中包含最大池化和不同的输入维度,这导致特征图上的比例差异相同。

5568554e-cd42-11ec-bce3-dac502259ad0.png

模型2-任务特定回归。网络输入被串联,第三组特征图由两个独立的层序列处理(多任务网络)。因此,网络以两个3D矢量的形式预测6D速度矢量。具体来说,该结构由一个共享编码器和两个特定解码器组成 - 一个用于线速度,另一个用于角速度。

558b3fdc-cd42-11ec-bce3-dac502259ad0.png

模型3-串联特征的直接回归和模型4-相关特征的直接回归,两个模型的结构类似,通过关联运算符()区分。

模型3简单连接;模型4使用相关层。

55f27b5c-cd42-11ec-bce3-dac502259ad0.png

模型3简单地由第三个卷积层产生的特征映射连接,因此第四个层的输入深度是原来的两倍。而模型4有一个相关层,帮助网络找到每个图像的特征表示之间的对应关系。原始相关层是flow network FlowNet的结构单元。

3.5

VS数据集

该数据集能够有效地捕获机器人操作环境的属性,具有足够的多样性,以确保泛化。

机器人以参考姿态为中心的高斯分布的不同姿态,具有不同的标准偏差(SD)。

下表为参考姿势(分布的平均值)和机器人假设的标准偏差集(SD)。

560343c4-cd42-11ec-bce3-dac502259ad0.png

SD选择考虑了机器人在VS期间必须执行的预期位移值。

从高SD获得的图像有助于网络了解机器人产生大位移时图像空间中产生的变化。

当参考图像和当前图像非常接近时,从低SD获得的实例能够减少参考图像和当前图像之间的误差,从而在稳态下获得良好的精度。

平均SD值有助于网络在大部分VS执行期间进行预测。

获得数据后,数据集以**的形式构造,其中图像为I**,****是拍摄该图像时对应的相机姿态。

为泰特-布莱恩角内旋(按照变换)

已处理数据集的每个实例都采用()表示。是选择作为所需图像的随机实例;选择另一个实例作为当前图像;是二者的变换。

通过齐次变换矩阵形式表示每个姿势(由平移和欧拉角表示)来实现(和),然后获得

最后,对于实际上是控制器的网络,其目的是其预测相机的速度信号,即:E控制信号。 被转化为

是比例相机速度。由于在确定标记比例速度时不考虑增益,因此使用了周期性项,并且在控制执行期间必须对增益进行后验调整。

速度由表示:

56648e68-cd42-11ec-bce3-dac502259ad0.png

其中,是旋转矩阵;****同一矩阵第i行和第j列的元素;是与当前相机位置到期望相机位置的平移向量;是比例增益(初始设置为1)。

审核编辑 :李倩


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 机器人
    +关注

    关注

    206

    文章

    27022

    浏览量

    201367
  • 图像
    +关注

    关注

    2

    文章

    1063

    浏览量

    40037
  • 视觉
    +关注

    关注

    1

    文章

    140

    浏览量

    23672

原文标题:【机器人识别抓取综述】基于视觉的机器人抓取—从物体定位、物体姿态估计到平行抓取器抓取估计

文章出处:【微信号:vision263com,微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    富唯智能机器人集成了协作机器人、移动机器人视觉引导技术

    ,富唯智能机器人还集成了协作机器人、移动机器人视觉引导技术,具有物料高精度抓取或放置功能,可满足各种复杂场景的协作搬运需求。
    的头像 发表于 01-17 11:58 159次阅读

    LabVIEW的六轴工业机器人运动控制系统

    LabVIEW开发六轴工业机器人运动控制系统 本项目开发了一个高效的工业机器人控制系统,重点关注于运动学算法和轨迹规划算法的实现和测试。LabVIEW作为一个关键技术,在项目中扮演了核
    发表于 12-21 20:03

    基于视觉的自主导航移动抓取机器人搭建方案

    经过以上对移动抓取机器人系统详细的剖析,我们可以知道移动抓取机器人系统并不是简单的“堆料”,而是
    发表于 12-19 15:09 325次阅读
    基于<b class='flag-5'>视觉</b>的自主导航移动<b class='flag-5'>抓取</b><b class='flag-5'>机器人</b>搭建方案

    ROS让机器人开发更便捷,基于RK3568J+Debian系统发布!

    ROS系统是什么 ROS(Robot Operating System)是一个适用于机器人的开源的元操作系统。它提供了操作系统应有的服务,包括硬件抽象,底层设备控制,常用函数的实现,进
    发表于 11-30 16:01

    解决方案 | 3D视觉引导发动机上盖拆垛抓取

    3D视觉引导机器人技术在发动机制造行业的应用,实现了自动化拆垛抓取,提高了生产效率和质量,并克服了传统人工操作面临的效率低下和安全隐患等问题。该技术具有自主研发的深度学习算法建立通用模型、提高工件识别准确度、简化
    的头像 发表于 10-23 14:42 223次阅读
    解决方案 | 3D<b class='flag-5'>视觉</b>引导发动机上盖拆垛<b class='flag-5'>抓取</b>

    Arduino教学机器人的使用教程

    本文档的主要内容详细介绍的是Arduino教学机器人的使用教程
    发表于 09-27 06:53

    基于视觉机器人抓取系统设计

    抓取综合方法是机器人抓取问题的核心,本文从抓取检测、视觉伺服和动态抓取等角度进行讨论,提出了多种
    的头像 发表于 08-19 17:19 1108次阅读
    基于<b class='flag-5'>视觉</b>的<b class='flag-5'>机器人</b><b class='flag-5'>抓取</b><b class='flag-5'>系统</b>设计

    【IoT毕设】机智云平台+STM32+树莓派的草莓采摘机器人控制系统

    , 采摘机器人结构简图如图1.3所示。主要研究了采摘机器人的全向移动底盘、机械手及其控制、视觉识别系统和整机的控制系统。 ​ 图1.2草莓采
    发表于 08-16 17:35

    抓取机器人为什么都采用伺服电机?

    抓取机器人需要对物体进行高精度、高速度的抓取和放置,因此需要使用高性能的伺服电机来实现精准的运动控制。相比于其他类型的电机,伺服电机具有以下优点,适合应用于抓取
    的头像 发表于 06-15 09:15 427次阅读

    机器人如何计算简单的运动

    模型要具备齿轮,导轨几种基本的运动原理。 要分辨基本图形,视觉模型要能分辨圆形,方形和三角形。 有了这两点,机器人就基本上能计算开模和注塑这种简单的工作了。要替代人类的工作,还要进一步学习。
    发表于 05-19 20:40

    抓取作业机器人3D视觉系统的设计方案

    3D视觉技术作为新兴的技术领域还存在很多亟待解决的问题,但2D视觉已不能满足空间抓取的应用要求。与2D视觉相比,3D视觉技术的优点有哪些?
    发表于 05-15 15:23 767次阅读
    <b class='flag-5'>抓取</b>作业<b class='flag-5'>机器人</b>3D<b class='flag-5'>视觉系统</b>的设计方案

    浅谈儿童陪护机器人

    儿童陪护机器人越来越受到人们的关注,其中转动控制是其重要组成部分之一。步进电机芯片作为一种常用的控制芯片,被广泛应用于儿童陪护机器人中的转动控制。本文将从步进电机芯片的工作原理、优势和应用场景等方面
    发表于 05-11 15:12