首页> 中国专利> 基于视觉的机器人重复定位精度测量方法

基于视觉的机器人重复定位精度测量方法

摘要

本发明公开的一种基于视觉的机器人重复定位精度测量方法,所述测量方法包括以下步骤:S1.搭建测量平台;S2.随机采集标靶图像;S3.通过图像数据进行相机标定;S4.写入数点,循环采集靶标图像;S5.对采集的靶标图像进行位姿估计;S6.进行数据处理;S7.输出结果。本发明是一种基于视觉的重复定位精度测量的新方法,包括相机标定、位姿估计、重复定位精度计算三大核心步骤,其测量平台仅需要工业相机、高清镜头、靶标、电脑等设备即可完成重复定位精度的测量,相对于激光跟踪仪高昂的设备价格和软件费用,大大降低了测量成本;且步骤简单,对操作人员、工作环境要求低。

著录项

  • 公开/公告号CN112907679A

    专利类型发明专利

  • 公开/公告日2021-06-04

    原文格式PDF

  • 申请/专利权人 烟台大学;

    申请/专利号CN202110118865.8

  • 申请日2021-01-28

  • 分类号G06T7/80(20170101);G06T7/70(20170101);

  • 代理机构37228 山东重诺律师事务所;

  • 代理人卢鹏

  • 地址 264005 山东省烟台市莱山区清泉路30号

  • 入库时间 2023-06-19 11:14:36

说明书

技术领域

本发明涉及检测技术领域,用于工业机器人重复定位精度的测量,具体为一种基于视觉的机器人重复定位精度测量方法。

背景技术

重复定位精度指同一机器人,在各条件、参数一致的条件下应用同一程序,重复达到原指令或示教位置所得连续测量结果的一致程度。重复定位精度是工业机器人的一项重要参数,并且重复定位精度对绝对定位精度有直接影响,因此重复定位精度是评估工业机器人优劣的重要指标。随着现代工业生产的迅猛发展,越来越多工业机器人替代人,成为生产加工的主力军。而在机器人的往复运动过程中,为了保证所生产工件的加工精度达标,应使工业机器人具有较高的重复定位精度。

目前工业机器人重复定位精度检测主要采用激光跟踪仪,采用基于球坐标的API激光跟踪仪对工业机器人的重复定位精度进行测量。测量的对象是六轴工业机器人,所有测点均以API激光跟踪仪的测量头为参照点。机器人末端位置以额定速度从某一测点开始,依次经过其他测点,再回到开始时的测点,进行第二次循环,共循环30次。与API激光跟踪仪配套使用的测量软件为 Spatial Analyzer,使用该软件采集数据,将所采集的机器人末端位置坐标原始数据导入计算机程序,计算出工业机器人在额定速度下几个测点的重复定位精度。

上述检测方法存在以下几方面缺点:

1.激光跟踪仪价格昂贵,且需要支付软件服务费,主要面向机器人研发检测,不适合批量检测;

2.激光跟踪仪对操作人员的技术水平要求较高,并且对工作环境的要求非常苛刻;

3.激光跟踪仪测量时需要与目标靶镜配合使用,在某些特殊使用场景中,将目标靶镜固定到待测位置的难度较大。

发明内容

本发明的目的是提供一种基于视觉的机器人重复定位精度测量方法,用于解决现有的测量方法中,激光跟踪仪在应用中存在价格高昂,不适合机器人批量检测;对操作人员和工作环境要求苛刻;测量需配合目标靶镜,某些场景难以实现等问题,而提供一种基于视觉的成本低廉、结构简单、操作方便的机器人重复定位精度间接测量方法。

为了实现本发明的目的,采用以下技术方案:

基于视觉的机器人重复定位精度测量方法,所述测量方法包括以下步骤:

S1.搭建测量平台;

S2.随机采集标靶图像;

S3.通过图像数据进行相机标定;

S4.写入数点,循环采集靶标图像;

S5.对采集的靶标图像进行位姿估计;

S6.进行数据处理;

S7.输出结果。

为了进一步实现本发明的目的,还可以采用以下技术方案:

如上所述的基于视觉的机器人重复定位精度的测量方法,步骤S2中在待测机器人有效空间位置设置靶标,在其活动范围内随机选取至少20个点来采集靶标图像。

如上所述的基于视觉的机器人重复定位精度测量方法,步骤S3中,所述的相机标定用于从靶标图像数据中获取相机内参矩阵的α、β、u

A1.从世界坐标系(Xw,Yw,Zw)到摄像机坐标系(Xc,Yc,Zc)的刚体转换,待标定参数R,T,获得外参数;

A2.基于针孔相机模型的透视变换,从摄像机坐标系(Xc,Yc,Zc)到成像平面(Xu,Yu),待标定参数f;

A3.理想的成像平面坐标系(Xu,Yu)与实际成像平面坐标(Xd,Yd)间的转换,待标定参数包括径向畸变K1、K2、K3和切向畸变K4、K5;

A4.实际成像平面坐标(Xd,Yd)与图像坐标(u,v)间的线性转换,待标定参数图像原点(u

如上所述的基于视觉的机器人重复定位精度测量方法,步骤S4中,首先,在机器人示教器内写入至少5个从机器人末端工业相机能拍摄到靶标的点,然后控制机器人按某一额定速度依次到达所写入的点并采集靶标图像数据,并往复循环20次以上。

如上所述的基于视觉的机器人重复定位精度的测量方法,步骤S5中通过位姿估计以获得相机光心在世界坐标系的位姿信息,包括导入标定参数纠正相机畸变、加载和预处理图像、提取角点、亚像素角点识别和存储角点信息、求解旋转和平移向量步骤,所述位姿信息包括旋转向量R和平移向量t参数;计算公式如下:

r

r

r

t=λA

t=(t

H=(h

A

其中,λ表示任意标量;R表示旋转向量矩阵,r

如上所述的基于视觉的机器人重复定位精度的测量方法,由所述平移向量t 的三个x,y,z位置参数计算获得重复定位精度,计算公式如下:

其中,E

如上所述的基于视觉的机器人重复定位精度测量方法,所述测量平台的靶标采用型号为GP070 12*9的棋盘格标定靶;相机选用BASLER acA2500-14gc 型工业相机。

本发明是一种基于视觉的重复定位精度测量的新方法,包括相机标定、位姿估计、重复定位精度计算三大核心步骤;在对循环测量法所拍摄图像进行位姿估计之前,先使用机械臂末端相机随即拍摄二十组靶标图像进行相机标定,纠正相机畸变;循环采集靶标图像的位姿完全是机械臂活动范围内能拍摄到靶标的随机点,机械臂的活动范围没有限制,不会出现激光跟踪仪测量方法所存在的目标靶镜特殊场景固定困难的问题。且为了提高测量精度,还可以添加更多的点以及增加循环次数。

与现有技术相比,本发明的优点在于:

本发明仅需要工业相机、高清镜头、靶标、处理器、机器人示教器等设备,结合原有的机器人控制器即可完成重复定位精度的测量,相对于激光跟踪仪高昂的设备价格,大大降低了测量成本;

相比于激光跟踪仪对操作人员技术水平要求高、对工作环境要求苛刻以及特定场景下目标靶镜存在难以固定到待测位置等问题,此发明操作过程仅需相机标定、位姿估计、重复定位精度计算三步,步骤简单,对操作人员、工作环境要求低。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍。

图1是本发明的流程框图;

图2是本发明所述测量平台的示意图;

图3是本发明所述相机标定的流程框图;

图4是本发明标靶图像循环采集流程图。

附图标记:1-待测机器人,2-工业相机,3-标靶,4-处理器,5-机器人示教器,6-机器人控制器。

具体实施方式

为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。

如图1所示,本实施例公开的一种基于视觉的机器人重复定位精度测量方法,该测量方法包括以下步骤:

S1.搭建测量平台;

S2.随机采集标靶图像;

S3.通过图像数据进行相机标定;

S4.写入数点,循环采集靶标图像;

S5.对采集的靶标图像进行位姿估计;

S6.进行数据处理;

S7.输出结果。

工业机器人与末端工业相机通过专门设计的夹具刚性连接,因此相机夹具在机器人运动过程中产生的微小柔性变形可忽略。所以工业相机在空间范围内运动前后的空间位置数据可以间接反映机器人末端执行器原点的运动情况,基于该测量原理具体步骤如下所述。

步骤S1、搭建测量平台,在待测机器人有效空间位置放置靶标一枚;

如图2所示,该测量平台包括处理器4、标靶3、工业相机2、机器人示教器5、机器人控制器6,标靶3设置在待测机器人1的作业有效空间内,工业相机2安装在待测机器人1末端,工业相机2的数据输出端与处理器4的数据输入端电连接;机器人示教器5与机器人控制器6信号连接,机器人控制器6与待测机器人1电连接,通过机器人示教器4为待测机器人1设定工业相机2拍摄到所述标靶3的点数量和位置,机器人控制器6用于控制待测机器人1的动作并循环采集标靶图像。

步骤S2、应用待测机器人在其活动范围内随机选取20个或以上点来采集靶标图像;

步骤S3、执行应用Python语言,基于张正友标定法编写的相机标定自动化程序,相机标定具体步骤如图3,从靶标图像数据中获取相机内参矩阵的α、β、 u

步骤S4:在机器人示教器内写入数个可以保证机器人末端相机能拍摄到靶标的点,为了保证重复定位精度测量的准确性,一般写入点数量应大于5;控制机器人按某一额定速度依次到达所写入的点并采集靶标图像数据,此过程往复循环20次以上。所采集的点以及循环次数越多,测量结果越精确,图4是以5 个点、循环20次为例的靶标图像循环采集流程图。

步骤S5、位姿估计是在相机标定所得结果基础上的进一步图像信息提取操作,是求解机器人末端处固连的相机光心的位置信息问题。对某一额定速度下循环测量所采集的各点的靶标数据执行应用Python语言编写的位姿估计自动化程序,程序分为导入标定参数纠正相机畸变、加载和预处理图像、提取角点、亚像素角点识别和存储角点信息、求解旋转和平移向量等步骤;通过位姿估计求解外部参数R(旋转矩阵)和t(平移向量),具体计算公式如下:

r

r

r

t=λA

λ表示任意标量,且:

t=(t

H=(h

A

其中,R表示旋转向量矩阵,r

通过计算,可得到相机光心在世界坐标系的位姿信息,即平移向量t、旋转向量R,世界坐标系建立在靶标左下角。

步骤S6、空间点的位姿信息包含平移向量t和旋转向量R,共6个参数(x,y,z,a,b,c)。重复定位精度由平移向量中的(x,y,z)3个位置参数得出。

第i张图像位置误差Ei为:

平均位置误差E为:

其中,Vx

对上述视觉测量系统的准确性通过实验平台进行验证,选取关节机器人作为视觉测量系统的待测对象;靶标选用高精度棋盘格标定靶,型号为GP070 12*9;相机选用BASLERacA2500-14gc型工业相机。

经搭建测量平台、随机拍摄靶标图像进行相机标定后,选用待测机器人10%额定速度下某一位姿的20张图像求解外部参数R和t,具体公式如步骤S5所述;对所得平移向量t进行步骤S6重复定位误差计算,经计算得到:

平均位置误差E≈0.0077mm;

最大位置误差EiMAX≈0.0127mm;

最小位置误差EiMIN≈0.0014mm;

待测机器人出厂前制造单位给出的激光跟踪仪测量得到的重复定位误差精度值为0.014mm,选取最大测量误差0.0127mm作为本发明的测量结果,重复定位误差精度提升了约(0.014-0.0127)/0.014≈9%。

重复上述过程,选用待测机器人不同额定速度下某位姿图像,经相机标定、位姿估计以及数据处理的自动化程序,经过多次试验验证,所得最大重复定位精度误差相较于制造单位所给出的应用激光跟踪仪测量所得到的重复定位误差精度值减小了8~10%,验证得出本发明所提出的基于视觉测量的工业机器人重复定位精度测量方案具有较好测量精度和效率。

本发明未详尽描述的技术内容均为公知技术。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号