首页> 中国专利> 机器人遥操作预测方法和遥操作预测平台

机器人遥操作预测方法和遥操作预测平台

摘要

本发明实施例提供了一种机器人遥操作预测方法和遥操作预测平台,属于机器人领域。所述方法包括:接收机器人的反馈数据;利用所述反馈数据标定所述机器人的预测模型。所述遥操作预测平台包括:接收模块和标定模块。本发明实施例通过将机器人的关节角数据和位姿数据同时反馈给遥操作预测平台,并将多次实际测量得到的关节角数据分别取均值,位姿数据分别取均值,得到机器人的预测运动图像,全面反映了机器人的运行情况,完成遥操作预测。

著录项

  • 公开/公告号CN101434066A

    专利类型发明专利

  • 公开/公告日2009-05-20

    原文格式PDF

  • 申请/专利权人 北京理工大学;

    申请/专利号CN200810224559.7

  • 发明设计人 黄强;卢月品;徐乾;李敏;李科杰;

    申请日2008-10-20

  • 分类号B25J3/04;B25J5/00;B25J9/16;B25J13/02;G05B17/02;G05D3/00;

  • 代理机构北京三高永信知识产权代理有限责任公司;

  • 代理人何文彬

  • 地址 100081 北京市海淀区中关村南大街5号北京理工大学宇航科学技术学院智能机器人研究所

  • 入库时间 2023-12-17 21:57:44

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2012-11-21

    授权

    授权

  • 2009-07-15

    实质审查的生效

    实质审查的生效

  • 2009-05-20

    公开

    公开

说明书

技术领域

本发明涉及机器人领域,特别涉及一种机器人遥操作预测方法和遥操作预测平台。

背景技术

遥操作是机器人应用的一个重要技术,通过遥操作平台,操作人员可以监视和控制远方机器人完成各种作业任务,从而使机器人能够代替人类在一些无法触及的、甚至是一些危及人类健康或生命安全的环境下完成各种任务。网络时延的存在为遥操作系统的感知和控制带来了许多问题,网络时延能够导致系统的不稳定,从而严重降低系统的操作性能。

预测是遥操作系统中的一项关键技术。预测可以克服遥操作系统中的时延影响,对操作员有很好的指导和指示作用,提高系统的可操作性。预测系统可以实现机器人的运动学和动力学仿真,并且可以实现仿人型机器人实时碰撞检测,可以实现由遥操作者发出的操作命令的预测显示。但此类系统存在以下缺点:只能进行命令的预测,没有现场传感器信号,没有机器人实时运行信息的补偿。

现有技术提出了一种基于时间和位置的预测显示方式,系统根据当前状态和反馈轨迹,根据当前状态下的时延,对系统状态进行预测,并以图形的方式显示给操作员,提高了系统的操作性和稳定性。

在实现本发明的过程中,发明人发现上述现有技术至少具有以下缺点:

反馈信息中只包括位置信息,但是对于机器人,特别是多自由度的仿人型机器人,只有位置信息的补偿是不能全面反映机器人的运行情况的。

发明内容

为了全面反映机器人的运行情况,本发明实施例提供了一种机器人遥操作预测方法和遥操作预测平台,具体的技术方案如下:

一种机器人遥操作预测方法,所述方法包括:

接收机器人的反馈数据;

利用所述反馈数据标定所述机器人的预测模型。

一种遥操作预测平台,所述遥操作平台包括:

接收模块,用于接收机器人的反馈数据;

标定模块,用于利用所述反馈数据标定所述机器人的预测模型。

本发明实施例提供的技术方案的有益效果是:

通过将机器人的关节角数据、位姿数据同时反馈给遥操作预测平台,并将机器人运行每个周期的多次实际测量得到的关节角数据、位姿数据分别拟合为曲线,对同一数据的多条曲线在同一时刻的数据值取均值,得到各个数据的标定值,根据标定值进行步态组合,得到机器人的预测模型,并生成预测运动图像,全面反映了机器人的运行情况,完成遥操作预测。

附图说明

图1是本发明实施例1中提供的机器人遥操作预测方法的流程图;

图2是本发明实施例2中提供的仿人型机器人行走遥操作预测方法的流程图;

图3是本发明实施例3中提供的遥操作预测平台的结构示意图;

图4是本发明实施例3中提供的标定模块的结构示意图。

具体实施方式

为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。

实施例1

参见图1,本发明实施例提供了一种机器人遥操作预测方法,包括:

步骤101:接收机器人的反馈数据;

步骤102:利用该反馈数据标定该机器人的预测模型。

步骤101中具体包括:

接收该机器人的关节角数据和位姿数据;

关节角数据具体为该机器人的各个关节角在其各个自由度方向上的角度,为机器人运行时实时测量得到;机器人运行一个周期,各个关节角在其各个自由度方向分别形成关节角角度-时间曲线;

位姿数据具体为该机器人的位置数据和姿态数据,为机器人运行时实时检测得到;位置数据为该机器人的重心在三维坐标系的各个坐标轴的投影,机器人运行一个周期,各个坐标轴的投影分别形成位置-时间曲线;

姿态数据为该机器人围绕以重心为原点的三维坐标系的各个坐标轴旋转的角度,机器人运行一个周期,机器人围绕以重心为原点的三维坐标系的各个坐标轴旋转的角度分别形成姿态角度-时间曲线。

步骤102具体包括:

将关节角数据和位姿数据分别取均值,根据求得的均值进行该机器人的步态组合,得到机器人的预测模型。

将关节角数据取均值,包括:

同一关节角在同一自由度方向上形成的N条关节角角度-时间曲线,同一时刻的关节角角度取均值,形成一条关节角角度均值-时间曲线,N为正整数;

使用相同的方法计算机器人各个关节角在其各个自由度方向上的关节角角度均值-时间曲线。

将位姿数据取均值,包括:将位置数据和姿态数据分别取均值;

将位置数据取均值包括:

机器人的重心在同一坐标轴上的投影形成的N条位置-时间曲线,同一时刻的位置数据取均值,形成一条位置均值-时间曲线;

使用相同的方法计算机器人的重心在三维坐标系的各个坐标轴上的投影的位置均值-时间曲线;

将姿态数据取均值,包括:

机器人围绕以重心为原点的三维坐标系的同一坐标轴旋转形成的N条姿态角度-时间曲线,同一时刻的姿态角度取均值,形成一条姿态角度均值-时间曲线;

使用相同的方法计算机器人围绕以重心为原点的三维坐标系的各个坐标轴旋转的姿态角度均值-时间曲线。

进一步地,根据求得的均值进行机器人的步态组合,包括:

根据关节角角度均值-时间曲线、位置均值-时间曲线和姿态角度均值-时间曲线,进行机器人的步态组合。

本发明实施例通过将关节角数据和位姿数据同时反馈给遥操作预测平台,并将多次实际测量得到的关节角数据进行取均值,位姿数据取均值,根据求得的均值进行步态组合,得到机器人的预测模型,并生成预测运动图像,全面反映了机器人的运行情况,完成遥操作预测。

实施例2

本实施例以仿人型机器人行走为例,对机器人遥操作预测方法进行详细地阐述:

将机器人行走过程分为3种步伐状态,分别为:

步伐状态1:双脚并排直立;

步伐状态2:左脚在前右脚在后;

步伐状态3:右脚在前左脚在后。

以上3种步伐状态相互转化可以产生6种步态模式:

步态模式1:左脚迈步开始行走为状态1—>状态2;

步态模式2:右脚迈步开始行走为状态1—>状态3;

步态模式3:左脚迈步前进为状态3—>状态2;

步态模式4:右脚迈步前进为状态2—>状态3;

步态模式5:左脚收脚结束为状态3—>状态1;

步态模式6:右脚收脚结束为状态2—>状态1。

以上6种步态模式可以组合出机器人的任意步行过程。

参见图2,机器人遥操作预测方法包括:

步骤201:制作遥操作预测平台,其中包括机器人作业场景的三维模型和数据处理模块;

机器人作业场景的模型主要为两种:环境模型和机器人模型。

(1)环境模型:使用三维建模软件制作结构已知的机器人作业场所中的环境模型,该环境模型具有与实际物体相同的外形特征和位置关系,可以实现全视角观察;

(2)机器人模型:使用三维建模软件制作机器人模型,该模型具有与机器人相同的外形几何特征及自由度设置,满足仿人型机器人多连杆结构运动学的约束条件。

步骤202:在机器人作业现场安装红外摄像头、在机器人身体的各个典型位置设定标点(用于运动捕获系统)、在机器人身体的各关节角安装角度传感器;

其中,红外摄像头用于识别并向遥操作预测平台传输机器人的位置数据、以及识别并向遥操作预测平台传输机器人的姿态数据;在这里,位置数据和姿态数据可以统称为位姿数据。

不仅限于使用红外摄像头,其他可以达到相同效果的仪器均能够使用。

这里,红外摄像头捕获在机器人身体上各个典型位置的标点,将所捕获的图像传送给遥操作预测平台,运动捕获系统在遥操作预测平台上准确重现机器人的位置和姿态。

角度传感器测量包括机器人每条腿部的6个关节角和每条手臂的6个关节角,腿部自由度分布如下:髋关节3个、膝关节1个、踝关节2个;手臂自由度分布如下:肩关节3个、肘关节2个、腕关节1个。

至此,准备工作完成。

步骤203:机器人在作业环境下开始步行,遥操作预测开始;

其中,使用设定好的初始化数据确定机器人模型及其环境模型的初始位置,以及机器人模型的各关节的初始角度。

步骤204:遥操作者在遥操作预测平台上发出操作命令,数据处理模块接收操作命令,并将操作命令进行解释,生成预测轨迹数据;使用预测轨迹数据驱动三维模型中的机器人模型和环境模型,构成三维虚拟场景。此场景能够显示机器人执行遥操作者发出命令的预测图像,实现运动学和动力学仿真;

步骤205:机器人实际执行遥操作者发出的操作命令进行步行,机器人作业现场安装的红外摄像头工作,将检测到的图像传输给遥操作预测平台,机器人本身的角度传感器实时测量各关节角角度数据,传输给遥操作预测平台;

其中,位置数据具体为仿人型机器人行走过程中的重心相对于机器人出发时的重心的相对位置坐标;机器人出发时的重心位置,作为位置数据的坐标系原点,按照右手法则建立三维坐标系的x、y、z轴。

姿态数据具体为仿人型机器人行走过程中的姿态,可以用机器人围绕以重心为原点的三维坐标系的各个坐标轴(x1、y1、z1轴)旋转的角度来表示。

步骤206:数据处理模块将接收到的机器人运行一个周期的位置数据在x轴投影的坐标值、在y轴投影的坐标值、在z轴投影的坐标值分别形成三条位置-时间曲线;将接收到的机器人运行一个周期的姿态数据在围绕以机器人重心为原点的x1轴的逆时针方向旋转的角度、在围绕以机器人重心为原点的y1轴的逆时针方向旋转的角度、在围绕以机器人重心为原点的z1轴的逆时针方向旋转的角度分别形成三条姿态角度-时间曲线;将机器人运行一个周期的每个关节角数据各个自由度的关节角度分别形成关节角角度-时间曲线;

这里以机器人重心为原点的x1、y1、z1轴组成的三维坐标系同样符合右手法则。

步骤207:将步骤203至步骤206重复进行N次,N为大于等于2的正整数,N的值越大,越能够反映理想情况;

步骤208:将位置数据在x轴投影的坐标值的N条位置-时间曲线,选择相同时刻的数据点做均值,M个时刻的数据均值形成一条x轴的位置均值-时间曲线,M为正整数,M越大越能够反映理想情况;位置数据在y轴投影的坐标值的N条位置-时间曲线,选择相同时刻的数据点做均值,M个时刻的数据均值形成一条y轴的位置均值-时间曲线;位置数据在z轴投影的坐标值的N条位置-时间曲线,选择相同时刻的数据点做均值,M个时刻的数据均值形成一条z轴的位置均值-时间曲线;将x轴、y轴、z轴的位置均值-时间曲线映射到坐标系中,便是机器人的位置均值-时间曲线。

将姿态数据在围绕以机器人重心为原点的x1轴的逆时针方向旋转的N条姿态角度-时间的曲线,选择相同时刻的数据点做均值,M个时刻的数据均值形成一条围绕x1轴旋转的姿态角度均值-时间曲线;姿态数据在围绕以机器人重心为原点的y1轴的逆时针方向旋转的N条姿态角度-时间曲线,选择相同时刻的数据点做均值,M个时刻的数据均值形成一条围绕y1轴旋转的姿态角度均值-时间的曲线;姿态数据在围绕以机器人重心为原点的z1轴的逆时针方向旋转的N条姿态角度-时间的曲线,选择相同时刻的数据点做均值,M个时刻的数据均值形成一条围绕z1轴旋转的姿态角度均值-时间曲线;将x1轴、y1轴、z1轴的姿态角度均值-时间曲线映射到坐标系中,便是机器人的姿态角度均值-时间曲线。

机器人的位置均值-时间曲线和姿态角度均值-时间曲线统称为机器人的位姿均值-时间曲线;

关节角数据曲线的处理,以其中一条腿的膝关节为例,其他各关节与膝关节的处理方法基本相同:

由于膝关节只有一个自由度,所以膝关节在其唯一的自由度方向上的N条关节角角度曲线,选择相同时刻的数据点做均值,L个时刻的数据均值形成一条膝关节在该自由度方向上的关节角角度均值-时间曲线,L为正整数,L的值越大,越能够反映理想情况。

其他的关节角按照各自的自由度个数,形成关节角在其各个自由度方向上的关节角角度均值-时间曲线,例如,踝关节具有2个自由度,那么踝关节需要计算形成2个自由度方向上的关节角角度均值-时间曲线,依次类推。

步骤209:根据位姿均值-时间曲线和各个关节角在其各自由度的关节角角度均值-时间曲线,进行机器人的步态组合,得到机器人的预测模型;

步骤210:使用均值-时间曲线(位姿均值-时间曲线、关节角角度均值-时间曲线)中的数据驱动虚拟场景中的各个模型,生成机器人实际执行命令的预测运动图像;

其中,由于机器人工作场景的结构化特点,可以认为均值-时间曲线中的数据趋近于机器人实际行走的位姿数据和关节角角度数据。

另外,对于机器人打太极拳的情况,由于打太极拳本身为固定的规划模块,因此将打太极拳视为一个整体,采集打太极拳整个过程的位置数据曲线和关节角数据曲线,将多次采集的数据的均值曲线作为机器人打太极拳的标定。

本发明实施例通过将关节角角度数据和位姿数据同时反馈给遥操作预测平台,并将多次实际测量得到的关节角角度数据进行取均值,位姿数据取均值,得到机器人的预测模型,并生成预测运动图像,全面反映了机器人的运行情况,完成遥操作预测。

实施例3

参见图3,本发明实施例提供了一种遥操作预测平台,包括:

接收模块301,用于接收机器人的反馈数据;

标定模块302,用于利用反馈数据标定机器人的预测模型。

接收模块301具体用于:

接收该机器人的关节角数据和位姿数据;

关节角数据具体为该机器人的各个关节角在其各个自由度方向上的角度,为机器人运行时实时测量得到;机器人运行一个周期,各个关节角在其各个自由度方向分别形成关节角角度-时间曲线;

位姿数据具体为该机器人的位置数据和姿态数据,为机器人运行时实时检测得到;位置数据为该机器人的重心在三维坐标系的各个坐标轴的投影,机器人运行一个周期,各个坐标轴的投影分别形成位置-时间曲线;

姿态数据为该机器人围绕以重心为原点的三维坐标系的各个坐标轴旋转的角度,机器人运行一个周期,机器人围绕以重心为原点的三维坐标系的各个坐标轴旋转的角度分别形成姿态角度-时间曲线。

参见图4,标定模块302具体包括:

标定单元302A,用于将关节角数据和位姿数据分别取均值;

预测单元302B,用于根据求得的均值进行该机器人的步态组合,得到机器人的预测模型。

标定单元302A具体用于:

将关节角数据取均值,包括:

同一关节角在同一自由度方向上形成的N条关节角角度-时间曲线,同一时刻的关节角角度取均值,形成一条关节角角度均值-时间曲线,N为正整数;

使用相同的方法计算机器人各个关节角在其各个自由度方向上的关节角角度均值-时间曲线。

将位姿数据取均值,包括:将位置数据和姿态数据分别取均值;

将位置数据取均值包括:

机器人的重心在同一坐标轴上的投影形成的N条位置-时间曲线,同一时刻的位置数据取均值,形成一条位置均值-时间曲线;

使用相同的方法计算机器人的重心在三维坐标系的各个坐标轴上的投影的位置均值-时间曲线;

将姿态数据取均值,包括:

机器人围绕以重心为原点的三维坐标系的同一坐标轴旋转形成的N条姿态角度-时间曲线,同一时刻的姿态角度取均值,形成一条姿态角度均值-时间曲线;

使用相同的方法计算机器人围绕以重心为原点的三维坐标系的各个坐标轴旋转的姿态角度均值-时间曲线。

进一步地,根据求得的均值进行机器人的步态组合,包括:

根据关节角角度均值-时间曲线、位置均值-时间曲线和姿态角度均值-时间曲线,进行机器人的步态组合。

遥操作预测平台为全视角观察平台。

本发明实施例通过将关节角角度数据和位姿数据同时反馈给遥操作预测平台,并将多次实际测量得到的关节角角度数据进行取均值,位姿数据取均值,得到机器人的预测模型,并生成预测运动图像,全面反映了机器人的运行情况,完成遥操作预测。

本发明实施例可以利用软件实现,相应的软件程序可以存储在可读取的存储介质中,例如,路由器的硬盘、缓存或光盘中。

以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号