首页> 中国专利> 基于双目视觉的地面侦察机器人手势控制系统及控制方法

基于双目视觉的地面侦察机器人手势控制系统及控制方法

摘要

本发明涉及一种基于双目视觉的地面侦察机器人手势控制系统及控制方法,包括显示器、双目摄像装置、控制指环、人机交互控制系统,显示器、双目摄像装置、控制指环分别与人机交互控制系统连接;显示器用于显示侦察机器人拍摄的场景图像;双目摄像装置用于采集操作人员的手势图像,控制指环用于控制地面侦察机器人车体的运动和机械臂的运动,人机交互控制系统用于处理双目摄像装置拍摄的手势图像,将手势图像处理为指尖点的三维坐标,然后将指尖点的三维坐标发送给机器人执行。可用于多自由度机械臂的地面侦察机器人,采用控制指环和双目摄像装置结合的方式,实现了机器人的位置移动和摄像头角度、高度的改变,完成侦察任务。

著录项

  • 公开/公告号CN113822251A

    专利类型发明专利

  • 公开/公告日2021-12-21

    原文格式PDF

  • 申请/专利权人 齐鲁工业大学;

    申请/专利号CN202111394436.X

  • 申请日2021-11-23

  • 分类号G06K9/00(20060101);G06K9/34(20060101);G06K9/62(20060101);G06T5/00(20060101);G06T7/13(20170101);G06T7/80(20170101);G06N3/04(20060101);G06N3/08(20060101);

  • 代理机构37306 济南格源知识产权代理有限公司;

  • 代理人刘晓政

  • 地址 250353 山东省济南市长清区大学路3501号

  • 入库时间 2023-06-19 13:46:35

说明书

技术领域

本发明涉及于双目视觉、移动机器人的远程控制相关技术领域,具体的说,是一种基于双目视觉,通过手势远程控制地面侦察机器人的控制系统及控制方法。

背景技术

地面侦察机器人一般是由可移动的机器人车体和侦察系统组成的,常用于有限空间(如野外、楼宇、室内)的侦察,也可搭载一定装备应用于矿业地下、消防等工作环境中,以及车厢、机舱等地的反恐侦察、有毒气体环境下的勘察、核辐射环境下的反恐及侦察。

最简单的侦察机器人搭载的侦察系统是由摄像头和两自由度云台组成的,摄像头固定于云台上,通过遥杆控制云台实现摄像头的移动控制,进而完成侦察任务。该方法的缺点是侦察范围小、不够灵活。另有采用多自由度机械臂取代两自由度云台的侦察机器人,其通常是将摄像头固定于多自由度机械臂末端,通过按钮或摇杆结合按钮来控制机械臂运动实现侦察。然而,按钮记忆复杂,机械臂控制难度大且不直观。为了解决这个问题,研究者开始使用手势这种直观且容易操作的方式来控制多自由度机械臂的运动。常见的手势控制方法有手势佩戴可识别装置(如数据手套等)和基于视觉图像的控制方式。前者是通过识别跟踪佩戴的装置来控制机械臂运动,但这种方法不能控制机械臂末端运动,而且装备昂贵。后者多采用基于肤色、形状等特征将手势分割出来,再通过手势识别分类,不同手势代表不同操作,进而控制机械臂末端运动。然而在手势分割过程中,常常会因为光照等问题导致肤色分割效果不佳,分割结果的准确性直接影响了后续工作的完成。

发明内容

针对上述问题,本发明提出一种基于双目视觉的地面侦察机器人手势控制系统及控制方法,可用于多自由度机械臂的地面侦察机器人,采用控制指环和双目摄像装置结合的方式,实现了机器人的位置移动和摄像头角度、高度的改变,完成侦察任务。

本发明提供如下技术方案:基于双目视觉的地面侦察机器人手势控制系统,包括显示器、双目摄像装置、控制指环、人机交互控制系统;所述显示器、双目摄像装置、控制指环分别与人机交互控制系统连接;显示器用于显示侦察机器人拍摄的场景图像;双目摄像装置用于采集操作人员的手势图像,控制指环用于控制地面侦察机器人车体的运动和机械臂的运动,人机交互控制系统用于处理双目摄像装置拍摄的手势图像,将手势图像处理为指尖点的三维坐标,然后将指尖点的三维坐标通过无线通信装置或者有线通信装置发送给机器人执行。

控制指环为内含单片机、具有近距离无线通信功能的控制器,控制指环有三个档位,分别是停止档、机器人车体控制档和机械臂末端控制档,通过将指环上的滑动开关滑动到不同档位控制机器人运动,采用无线通信方式,利于指环的使用,如果采用有线方式,通信线很容易阻碍控制指环的运动,并且通信线也会影响双目摄像装置的拍摄。

将操作人员操控的控制端和侦察机器人之间连接,可以采用有线或者无线的方式,根据实际使用需要进行设置,操作人员在控制端通过滑动控制指环选择控制机器人车体或机械臂,确定控制机器人车体或机械臂后,双目摄像装置拍摄到操作人员手指运动的手势图像,手势图像通过人机交互控制系统处理获得指尖移动轨迹信息,将指尖移动轨迹信息传送给执行端,执行端接收信息,控制机器人车体或者机械臂末端运动,带动侦察摄像头拍摄操作人员指定的区域,完成侦察任务,机器人执行端包括履带式机器人车体、多自由度机械臂、侦察摄像头、远距离无线通信装置、机器人控制系统。其中,多自由度机械臂末端搭载侦察摄像头固定于履带式机器人车体上,通过侦察摄像头拍摄侦察区图像。机器人控制系统通过远距离无线通信装置接收控制端发送来的指尖点的轨迹,将指尖点轨迹进行关节反解之后,控制机器人车载机械臂各关节跟踪指尖点轨迹进行关节反解之后对应的关节角轨迹。

基于双目视觉的地面侦察机器人手势控制方法,包括如下步骤,步骤1、将操作人员操控的控制端和侦察机器人之间建立连接;步骤2、打开控制端的显示器,显示侦察机器人拍摄的侦察图像;步骤3、判断控制指环的档位,并将档位信息发送给侦察机器人并执行下一步;步骤4、解码控制指环发送来的档位信息并判断控制指环档位是否处于机器人车体控制档,如果是处于机器人车体控制档,则根据双目摄像装置获得操作人员的指尖点所在区域信息进行机器人车体运动控制指令编码,然后发送给执行端并执行步骤6,如果是处于机械臂末端控制档,则将双目摄像装置获得操作人员的连续指尖点坐标信息进行机械臂末端运动控制指令编码,然后通过发送给执行端并执行步骤5;步骤5、执行端接收机械臂末端运动控制指令编码并解码为连续指尖点坐标信息,然后控制机械臂末端跟踪指尖点运动;步骤6、执行端接收机器人车体运动控制指令编码,然后解码为机器人车体运动控制指令,然后控制机器人车体向指定方向移动;步骤7、判断程序是否结束,如果是,则结束对机器人的控制,否则,执行步骤3。在使用时,需要操作员佩戴控制指环、安装双目摄像头和显示器。

上述的指令编码包括包头、功能位、数据位、数据、校验位、包尾,其中包头为机器人控制的起始位,功能位代表控制指环档位,指环档位包括停止档、控制机器人车体档或控制机械臂末端档,数据位表示即将接收数据的位数,数据是指尖点坐标信息或指尖点所在区域信息,校验位用于校验传输数据的准确与否,包尾为结束位。

步骤4中,双目摄像装置获得操作人员指尖点的具体步骤为:步骤41、双目摄像装置拍摄操作人员手势的双视角图像;步骤42、采用基于对抗网络的半监督语义分割算法对拍摄的双视角图像进行语义分割;步骤43、采用指尖检测算法对步骤42得到的语义分割后的手势图像进行指尖检测;步骤44、采用三维重建算法将步骤43检测到的二维图像指尖点重建为三维指尖点。

步骤42中,基于对抗网络的半监督语义分割算法,具体为:

步骤421、构建网络;

包括一个语义分割网络和一个判别网络,语义分割网络用于生成与输入手势图像相对应的语义分割图,判别网络通过检测分割网络产生的分割图与真实标签图之间的差别,来调整语义分割结果;其中,语义分割网络采用DeeplabV3+,判别网络采用DCGAN结构中的判别器--卷积神经网络。分割网络的输入是H×W×3(H、W分别为图像的高和宽,3为RGB三通道)的图像,输出是H×W×K(K为分割的类别数)的类别概率图。其中,类别概率图表征图像中的点为类别K的概率。判别网络的输入是来自分割网络的类别概率图或与输入图像对应的真实标签的独热码,输出是H×W×1的置信图,具体地,置信图表征图像中的像素点来自真实标签的置信度。

步骤422、确定损失函数和训练方式;

本网络的训练包括语义分割网络的训练和判别网络的训练,在训练过程中,用到两种训练方式:全监督性训练和半监督训练。

全监督训练中,只使用有标签的图像进行训练,语义分割网络的损失函数为:语义分割网络生成的语义分割图和真实标签的交叉熵损失

其中,

半监督训练中,针对有标签的图像,分割网络的损失函数为:分割网络生成的语义分割图和真实标签的交叉熵

其中,

其中,

步骤423、开始训练;包括语义分割网络的训练和判别网络的训练,在训练时,先训练判别网络,再训练语义分割网络;在更新语义分割网络参数时,要保持判别网络参数不变。

步骤4231、训练判别网络;使用有标签图像进行全监督训练,损失函数是交叉熵损失函数

其中,

步骤4232、训练分割网络;首先,对网络进行全监督训练,使得语义分割网络和判别网络都掌握一定的工作能力;其次,将有标签和无标签图像同时放入网络进行半监督训练;将无标签图像经语义分割网络得到的类别概率图送入判别网络,得到置信图,再对其进行二值化处理得到伪标签,利用伪标签进行半监督训练。

步骤43中指尖检测算法具体包括:步骤431、获取语义分割得到的语义分割图;步骤432、对语义分割图进行灰度化、二值化处理;步骤433、利用Canny算子边缘检测的方法从图中找到手势轮廓,并画出来;步骤434、通过求手势轮廓的零阶矩

步骤44中的三维重建算法,包括:

步骤441、获取指尖检测得到的指尖点左右视图;

步骤442、标定双目摄像头的坐标点参数,标定双目摄像头,获取双目摄像头的内、外参数。标定过程主要是坐标系之间的转换:世界坐标系-相机坐标系-图像坐标系。

世界坐标系Oxyz-相机坐标系

其中,(x,y,z)是点在Oxyz坐标系中的坐标,

相机坐标系

其中,

由于相机有畸变,故图像坐标系的真实坐标点

利用棋盘格,采用Harris算法检测其中的角点,由于已知棋盘格中格子之间的距离等世界坐标系信息,故可求出双目摄像头的参数该方法基本步骤为:首先,计算出内外参矩阵的积;其次,求内参矩阵;最后,求外参矩阵。

步骤443、进行双目矫正;根据上一步获得的双目摄像头参数对手势指尖点左右视图进行畸变矫正和极线矫正,使左右视图成像原点一致、两个摄像头光轴平行、左右成像共面、对极线行对齐;

步骤444、进行立体匹配;对双目矫正后的指尖图像,通过立体匹配算法对其进行立体匹配,计算视差图;

步骤445、根据视差图进行三维重建;根据视差图,通过几何关系求出深度图,生成三维点云图像,并利用摄像头参数求出指尖点的三维坐标。

设指尖点在世界坐标系中的坐标为

其中,

步骤5中机械臂末端控制时,具体为:步骤51、读取三维重建得到的指尖点的三维坐标;步骤52、将读取到的三维坐标映射到机械臂坐标系;步骤53、判断机械臂末端是否到达指尖点处,如果是,执行步骤51,读取下一个指尖点坐标,如果否,执行下一步;步骤54、对指尖点坐标进行逆运动学求解,计算出指尖点坐标对应的机械臂各关节角值;步骤55、使用机器人轨迹跟踪控制算法控制多自由度机械臂的各个关节跟踪指尖点反解后的关节角并最终使机械臂末端跟随指尖点运动。

步骤6中车体运动时,依据的指尖点所在区域,将区域划分为A、B、C、D、E,若指尖点位于区域A,则控制机器人车体前进;指尖点位于区域B,则控制机器人车体后退;指尖点位于区域C,则控制机器人车体左转;指尖点位于区域D,则控制机器人车体右转;指尖点位于区域E,则控制机器人车体停止,

A区域可用如下约束条件表示:

B区域可用如下约束条件表示:

C区域可用如下约束条件表示:

D区域可用如下约束条件表示

E区域可用如下约束条件表示:

其中,r为E区域圆的半径,

通过上述描述可以看出本方案中相比现有技术,具有如下效果:(1)本公开在控制端有显示器,可以实时观察侦察区的情况,采用双目摄像头拍摄手势图像,通过建立手指指尖与机器人的联系,实现了只需移动手指,便可控制机器人车体或机械臂末端运动的功能,简单易懂,方便操作。(2)本公开在控制端采用控制指环作为系统的开关,三档调节,可随意切换控制机器人车体或机械臂运动,操作简单、方便快捷。(3)本方案中采用基于对抗网络的半监督语义分割算法对拍摄的双视角图像进行语义分割。该网络由DeeplabV3+语义分割网络和一个判别网络构成,其中,语义分割网络用于生成与输入手势图像相对应的语义分割图,判别网络通过检测分割网络产生的分割图与标签图之间的差别,来调整语义分割结果,使得分割效果更好;另外,采用半监督,用判别网络产生的伪标签帮助分割网络来训练,可以有效地解决语义分割中常见的标签获取难的问题;最后,语义分割是像素级别的分割,分割过程中往往容易忽略像素间的整体关系,而生成对抗网络的方法可以有效地解决这个问题。(4)本方案中采用寻找最大重心距离的方法检测指尖,简单方便、快捷有效,为整个过程节省了时间,更容易实现实时控制。

附图说明

图1是本发明具体实施方式的系统概图。

图2是本发明具体实施方式的控制方法的流程图。

图3是本发明具体实施方式的控制指环放大图。

图4是本发明具体实施方式的无线通信编码方式图。

图5 是本发明具体实施方式的指尖点区域划分图。

图6是本发明具体实施方式的生成对抗网络半监督语义分割图。

图7是本发明具体实施方式的分割网络结构中的DeeplabV3+结构图。

图8是本发明具体实施方式的判别网络结构图。

图9是本发明具体实施方式的指尖检测实现流程图。

图10是本发明具体实施方式的三维重建实现流程图。

图11是本发明具体实施方式的机械臂末端位置控制实现流程图。

图中:A1为显示器,A2为双目摄像头,A3为控制指环,A4为控制端近距离无线通信装置,A5为控制端远距离无线通信装置,A6为人机交互控制系统,B1为机器人车体,B2为机械臂,B3为侦察摄像头,B4为执行端远距离无线通信装置,B5为机器人控制系统。

具体实施方式

下面将结合本发明具体实施方式中的附图,对本发明具体实施方式中的技术方案进行清楚、完整地描述,显然,所描述的具体实施方式仅仅是本发明一种具体实施方式,而不是全部的具体实施方式。基于本发明中的具体实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他具体实施方式,都属于本发明保护的范围。

需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合;

通过附图可以看出,本发明的基于双目视觉的地面侦察机器人手势控制系统,包括显示器A1、双目摄像装置A2、控制指环A3、人机交互控制系统A6,显示器A1、双目摄像装置A2、控制指环A3分别与人机交互控制系统A6连接;显示器A1用于显示侦察机器人拍摄的场景图像;双目摄像装置用于采集操作人员的手势图像,控制指环用于控制地面侦察机器人车体的运动和机械臂的运动,人机交互控制系统用于处理双目摄像装置拍摄的手势图像,将手势图像处理为指尖点的三维坐标,然后将指尖点的三维坐标发送给机器人执行,本具体实施方式采用履带式机器人。

操作人员在控制端通过滑动控制指环A3选择控制机器人车体B1或机械臂B2末端运动,通过移动手指,双目摄像装置A2拍摄,人机交互控制系统A6处理,将指尖移动轨迹信息传送给执行端,执行端接收信息,通过机器人控制系统B5控制机器人车体B1或机械臂B2末端运动,机械臂B2为多自由度机械臂,带动侦察摄像头B3拍摄操作人员指定的区域,完成侦察任务。机器人包括履带式机器人车体B1、机械臂B2、侦察摄像头B3、执行端远距离无线通信装置B4、机器人控制系统B5。其中,多自由度机械臂B2末端搭载侦察摄像头B3固定于履带式机器人车体B1上,通过侦察摄像头B3拍摄侦察区图像,通过执行端远距离无线通信装置B4与控制端联络。机器人控制系统B5通过执行端远距离无线通信装置B4接收控制端发送来的指尖点的轨迹,将指尖点轨迹进行关节反解之后,控制机器人车载机械臂B2各关节跟踪指尖点轨迹进行关节反解之后对应的关节角轨迹。

控制指环A3为内含单片机、具有近距离无线通信功能的控制器,控制指环有三个档位,分别是停止档、机器人车体控制档和机械臂末端控制档,通过不同档位控制机器人运动。

一种基于上述系统的地面侦察机器人手势控制方法,包括如下步骤,

步骤1、将操作人员操控的控制端和侦察机器人之间建立连接,本具体实施方式中采用无线通信方式建立连接;

步骤2、打开控制端的显示器A1,显示侦察机器人拍摄的侦察图像;

步骤3、判断控制指环A3的档位,并将档位信息发送给侦察机器人并执行下一步;

步骤4、解码控制指环A3发送来的档位信息并判断控制指环档位是否处于机器人车体控制档,如果是处于机器人车体控制档,则根据双目摄像装置A2获得操作人员的指尖点所在区域信息进行机器人车体运动控制指令编码,然后发送给执行端并执行步骤6,如果是处于机械臂B2末端控制档,则将双目摄像装置A2获得操作人员的连续指尖点坐标信息进行机械臂B2末端运动控制指令编码,然后通过发送给执行端并执行步骤5;

如图4所示的编码方式,其中,包头为机器人控制的起始位,功能位代表控制指环档位(停止、控制机器人车体或控制机械臂),数据位表示即将接收数据的位数,数据是指尖点坐标信息或指尖点所在区域信息,校验位用于校验传输数据的准确与否,包尾为结束位。例如,包头位:0xFF00;功能位:0xAA表示控制机器人车体,0xBB表示控制机械臂,0xCC表示停止;数据位:0x02表示即将接收两位数据(机器人车体控制时的指尖点区域信息),0x03表示即将接收两位数据(机械臂控制时的指尖点坐标信息);数据即两位区域信息或三位坐标信息;校验位为前面所有位数据之和;包尾位:0xEE。

双目摄像装置获得操作人员指尖点的具体步骤为:

步骤41、双目摄像装置拍摄操作人员手势的双视角图像;

步骤42、采用基于对抗网络的半监督语义分割算法对拍摄的双视角图像进行语义分割;

具体为:步骤421、构建网络;本网络包括一个语义分割网络和一个判别网络,其中,语义分割网络采用DeeplabV3+,判别网络采用DCGAN结构中的判别器--卷积神经网络。语义分割网络用于生成与输入手势图像相对应的语义分割图,判别网络通过检测分割网络产生的分割图与真实标签图之间的差别,来调整语义分割结果。生成对抗网络半监督语义分割流程图如图6所示,分割网络结构如图7所示,判别网络结构如图8所示。分割网络的输入是H×W×3(H、W分别为图像的高和宽,3为RGB三通道)的图像,输出是H×W×K(K为分割的类别数)的类别概率图。其中,类别概率图表征图像中的点为类别K的概率。判别网络的输入是来自分割网络的类别概率图或与输入图像对应的真实标签的独热码,输出是H×W×1的置信图,具体地,置信图表征图像中的像素点来自真实标签的置信度。

步骤422、确定损失函数和训练方式;本网络的训练包括语义分割网络的训练和判别网络的训练,在训练过程中,用到两种训练方式:全监督性训练和半监督训练。

全监督训练中,只使用有标签的图像进行训练,语义分割网络的损失函数为:语义分割网络生成的语义分割图和真实标签的交叉熵损失

其中,

半监督训练中,针对有标签的图像,分割网络的损失函数为:分割网络生成的语义分割图和真实标签的交叉熵

其中,

其中,

步骤423、开始训练;此训练过程分为两部分:语义分割网络的训练和判别网络的训练,在训练时,先训练判别网络,再训练语义分割网络。在更新语义分割网络参数时,要保持判别网络参数不变。步骤4231、训练判别网络;使用有标签图像进行全监督训练,损失函数是交叉熵损失函数

步骤43、采用指尖检测算法对步骤42得到的语义分割后的手势图像进行指尖检测;如图9所示,步骤431、获取语义分割得到的语义分割图;步骤432、对语义分割图进行灰度化、二值化处理;步骤433、利用Canny检测的方法从图中找到手势轮廓,并画出来;步骤434、通过求手势轮廓的零阶矩

步骤44、采用三维重建算法将步骤43检测到的二维图像指尖点重建为三维指尖点。

如图10所示,步骤441、获取指尖检测得到的指尖点左右视图;

步骤442标定双目摄像头A2;对双目摄像头A2进行标定,获取双目摄像头A2的内、外参数。标定过程主要是坐标系之间的转换:世界坐标系-相机坐标系-图像坐标系。

世界坐标系Oxyz-相机坐标系

其中,(x,y,z)是点在Oxyz坐标系中的坐标,

相机坐标系

其中,

由于相机有畸变,故图像坐标系的真实坐标点

采用检测算法检测其中的角点,由于已知棋盘格中格子之间的距离等世界坐标系信息,故可求出双目摄像头的参数。该方法基本步骤为:首先,计算出内外参矩阵的积;其次,求内参矩阵;最后,求外参矩阵。

步骤443、进行双目矫正;根据上一步获得的双目摄像头参数对手势指尖点左右视图进行畸变矫正和极线矫正,使左右视图成像原点一致、两个摄像头光轴平行、左右成像共面、对极线行对齐。

步骤444、进行立体匹配;对双目矫正后的指尖图像,通过BM立体匹配算法对其进行立体匹配,计算视差图。

步骤445、根据视差图进行三维重建;根据视差图,通过几何关系求出深度图,生成三维点云图像,并利用摄像头参数求出指尖点的三维坐标。

设指尖点在世界坐标系中的坐标为

其中,

步骤5、执行端接收机械臂B2末端运动控制指令编码并解码为连续指尖点坐标信息,然后控制机械臂B2末端跟踪指尖点运动;

如图11所示,步骤5中的机械臂B2末端控制时,具体为:步骤51、读取三维重建得到的指尖点的三维坐标

步骤6、执行端接收机器人车体运动控制指令编码,然后解码为机器人车体运动控制指令,然后控制机器人车体向指定方向移动;

如图5所示,依据指尖点区域划分情况,具体为:将区域划分为A、B、C、D、E,划分情况如图5所示。若指尖点位于区域A,则控制机器人车体前进;指尖点位于区域B,则控制机器人车体后退;指尖点位于区域C,则控制机器人车体左转;指尖点位于区域D,则控制机器人车体右转;指尖点位于区域E,则控制机器人车体停止。

按照如图5所示方式建立直角坐标系,则A区域可用如下约束条件表示:

B区域可用如下约束条件表示:

C区域可用如下约束条件表示:

D区域可用如下约束条件表示

E区域可用如下约束条件表示:

其中,r为E区域圆的半径,

步骤7、判断程序是否结束,如果是,则结束对机器人的控制,否则,执行步骤3。

尽管已经示出和描述了本发明的具体实施方式,对于本领域的普通技术人员而言,可以理解在不脱离发明的原理和精神的情况下可以对这些具体实施方式进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号