首页> 中国专利> 多视角大深度显微立体视觉特征融合测量方法

多视角大深度显微立体视觉特征融合测量方法

摘要

本发明涉及一种多视角大深度显微立体视觉特征融合测量方法,该方法使用复合式体视显微镜视觉系统,以“桶式”节点结构采集原始立体图像对,通过同一深度面不同节点位置处图像的配准、条纹配准、不同深度面原始合成图像序列的融合、原始图像局部匹配,提供准确的匹配视差数据,能够重构高精度的三维图形。该方法能够解决显微立体测量中的遮挡和大尺度微观对象精密视觉测量问题,从本质上克服现有体视显微镜视觉测量方法存在的技术瓶颈。

著录项

  • 公开/公告号CN103075960A

    专利类型发明专利

  • 公开/公告日2013-05-01

    原文格式PDF

  • 申请/专利权人 北京工业大学;

    申请/专利号CN201210583760.0

  • 发明设计人 王跃宗;殷文佳;张称称;马国栋;

    申请日2012-12-30

  • 分类号G01B11/00(20060101);G01B11/02(20060101);G01B11/25(20060101);

  • 代理机构11203 北京思海天达知识产权代理有限公司;

  • 代理人刘萍

  • 地址 100124 北京市朝阳区平乐园100号

  • 入库时间 2024-02-19 18:13:15

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2018-12-14

    未缴年费专利权终止 IPC(主分类):G01B11/00 授权公告日:20150603 终止日期:20171230 申请日:20121230

    专利权的终止

  • 2015-06-03

    授权

    授权

  • 2013-06-05

    实质审查的生效 IPC(主分类):G01B11/00 申请日:20121230

    实质审查的生效

  • 2013-05-01

    公开

    公开

说明书

技术领域

本发明涉及一种多视角大深度显微立体视觉特征融合测量方法,该方 法使用复合式体视显微镜显微立体视觉测量系统采集多维空间立体图 像对,系统包括辅助条纹投影系统、三维操作台、旋转台、横向位移 台、体视显微镜和左、右相机(采用CCD相机),特别是涉及采用投影 条纹图像序列与多视角多深度面立体图像序列的配准、融合,以条纹 作为辅助边界条件确定原始图像局部匹配,输出条纹边缘像素视差和 局部原始图像像素视差,实现高精度、无遮挡、大尺度的显微立体测 量。

背景技术

体视显微镜具有两套光路,呈一定夹角,可以与两个相机组合后构成 显微立体视觉系统,通过立体图像对的匹配反求微观对象的的三维立 体结构,在计算机中输出立体图形,可用于微观对象的立体结构测量 ,如长度、宽度、高度、表面粗糙度等等。目前,已有的体视显微镜 视觉测量系统主要通过立体图像对的匹配来实现,采用灰度匹配法、 相关匹配法、模板匹配法等建立原始图像的相似性评价,对其具有完 全的依赖性。现有测量方法最大的问题来自立体匹配算法本身具有的 不足,微观对象类型多种多样,表现在透明度、颜色、反光度、大小 、形状等均存在差异,反应在图像中的目标对象也存在差异性。现有 匹配方法提取的信息仅仅依赖原始被测目标,难以克服图像信号广义 的差异性和随机性,匹配结果中总出现大量的错匹配和误匹配数据, 无法保证匹配的精度,也导致重构点云中存在大量的奇异点。因此,现 有的基于原始图像匹配的体视显微镜视觉测量技术仍然存在难以克服 的技术瓶颈,其技术方案更无法从本质上解决测量中出现的局部遮挡 和大深度微观对象的测量问题,在技术应用上难以推广。

本发明对现有的体视显微镜视觉系统做了改进,增加了辅助条纹投影 系统,配合三维操作台、旋转台、横向位移台以“桶形”方式采集空 间位置的原始立体图像对,从多个视点、多个深度面采集图像,构成 空间图像序列,包含了空间的多方位多深度信息,实现了带有辅助条 纹投影系统、三维操作台、旋转台和横向位移台的复合式体视显微镜 显微立体视觉测量系统,以复合式视觉系统为基础,在测量方法上进 行了创新。投影条纹作为人为增加的图像特征参与平面多节点图像的 配准和融合,获取多视点多深度面的图像清晰度信息,通过多维图像 融合解决测量中的遮挡、大深度测量问题。同时,建立左右条纹图像 的配准关系,条纹是非常明显的线性特征元素,现有图像处理算法能 够精确计算条纹的边缘像素视差,通过在图像中增加条纹,能够从本 质上解决现有的完全依赖匹配的测量系统中的错匹配和误匹配,如果 条纹间隔密集,直接通过条纹图像处理即可给出精确的视差图。以条 纹边缘作为边界条件,条纹边缘像素视差作为约束条件,建立局部小 区域内的原始目标匹配关系,把立体匹配的区域加以限制,有效抑制 错匹配和误匹配的出现,原始目标匹配结果作为辅助因素参与数据重 构,而条纹边缘像素视差成为了主体,完全不同于现有的完全依赖匹 配的解决方案,能够从本质上解决现有体视显微镜视觉系统测量方法 存在的不足。

发明内容

针对现有体视显微镜立体视觉测量法存在的问题,本发明推出了增加 辅助条纹投影系统、三维操作台、旋转台和横向位移台的复合式体视 显微镜显微立体视觉测量系统,使用该系统以“桶形”节点结构采集 原始立体图像对,通过同一深度面不同节点位置处的原始图像序列的 配准,输出该深度面合成后的原始合成图像,通过不同深度面原始合 成图像序列的融合,输出融合后的原始融合图像,使用该系统采集条 纹图像,以条纹边缘像素视差为主体,条纹边缘界定的局部限制区域 内原始图像匹配结果为辅助,给出条纹复合的视差计算结果,其目的 是解决现有体视显微镜立体视觉测量方法完全依赖原始图像匹配而 导致的大量错匹配和误匹配现象,提高匹配精度,更进一步解决该测 量方式中存在的遮挡和大深度测量问题,通过条纹投影实现高精度匹 配数据的输出。

本发明所涉及的多视角大深度显微立体视觉特征融合测量方法,是由复 合式体视显微镜显微立体视觉测量系统,以“桶形”节点结构采集原 始立体图像对,在计算机中对“桶形”节点图像进行处理,对同一深 度面不同节点位置处的原始图像序列进行配准,生成该深度面合成后 的原始合成图像,实现条纹参与的不同深度面图像的匹配与融合,输 出条纹边缘视差和局部限制区域内的原始图像视差,通过视觉反演计 算空间坐标,生成三维立体图形、输出三维立体信息。所述的多视角 大深度显微立体视觉特征融合测量方法包括以下步骤:

1、“桶形”节点结构原始图像采集及条纹图像采集

复合式体视显微镜显微立体视觉测量系统的主体为体视显微镜5,左相 机6和右相机7分别固定于体视显微镜5的左相机固定架16与右相机固定 架17上面,显微物镜18固定在体视显微镜5的下端,环形光源15固定在 显微物镜18的下端。辅助条纹投影系统1(COHERENT公司生产)产生投 影条纹,固定在条纹投影系统光源支架2上,被测物体8置于旋转台9上 面,旋转台9安放在横向位移台10上,条纹投影系统光源支架2和横向 位移台10安放在载物台3上。载物台3与三维操作台4固定,使载物台3 与三维操作台4始终位于同一平面内。移动台控制器14与三维操作台4 、旋转台9、横向位移台10连接并控制三维操作台4、旋转台9、横向位 移台10动作。左相机6和右相机7通过USB口与计算机11连接,移动台控 制器14通过串口与计算机11通信。计算机11采集左相机6和右相机7中 的立体图像对并进行处理,通过串行口控制移动台控制器14输出脉冲 信号,控制三维操作台4沿深度面纵向图像采集方向12移动,控制旋转 台9沿深度面平面图像采集方向13旋转,控制横向位移台10沿与条纹垂 直方向移动,在深度面纵向图像采集方向12和深度面平面图像采集方 向13上产生“桶形”节点。

在复合式体视显微镜显微立体视觉测量系统中,通过控制三维操作台 4和旋转台9实现被测物沿深度面纵向图像采集方向12和深度面平面图 像采集方向13移动,以“桶形”节点结构采集原始立体图像对。首先 通过计算机11操作三维操作台4和旋转台9,将被测物体8移动到体视显 微镜5的第1深度面第1节点位置K11,采集原始立体图像对,使用体视显 微镜5的聚焦面作为第1深度面Plane_1,第一深度面第一节点位置K11任 意确定,然后控制旋转台9沿深度面平面图像采集方向13等角度旋转, 分别在节点位置K12、K13至K1N处等待一段时间,采集原始立体图像对, 节点间的角度α=360°/N。在第1深度面Plane_1采集完所有节点的原 始立体图像对后,调整旋转台9沿深度面平面图像采集方向13旋转回第 一深度面第一节点K11位置,然后调整三维操作台4沿深度面纵向图像采 集方向12向上移动,到达第2深度面Plane_2,控制旋转台9沿深度面平 面图像采集方向13等角度旋转,分别在K21、K22、K23至K2N处采集原始立 体图像对;依次类推,最后调整三维操作台4沿深度面纵向图像采集方 向12向上移动,到达第M深度面Plane_M,控制旋转台9沿深度面平面图 像采集方向13等角度旋转,分别在节点位置KM1、KM2、KM3至KMN处等待一 段时间,采集原始立体图像对,完成整个“桶形”图像采集过程。每个 深度面对应的第N个位置的节点,即K1N、K2N…KMN节点在深度面纵向图像 采集方向上处于同一条直线;

在每层深度面的第一节点位置采集的原始立体图像对作为该深度面的 左原始参考图像和右原始参考图像;同一深度面不同节点位置处的左 原始图像集合称为该深度面的左原始图像序列,同一深度面不同节点 位置处的右原始图像集合称为该深度面的右原始图像序列;

辅助条纹投影系统1提供线结构光来生成条纹图像。在每层深度面的第 一节点位置采集的原始立体图像对作为该深度面的左原始参考图像和 右原始参考图像,该深度面的左原始图像序列S1以左原始参考图像为 基准进行配准,合成为该深度面的左原始合成图像,该深度面的右原 始图像序列S6的配准与合成与左原始图像序列S1的配准与合成方法相 同。在每层深度面的第一节点 位置处采集条纹图像对,通过计算机11控制横向位移台10带动旋转台 9和被测物体8沿与条纹垂直方向一维等间隔移动,间隔距离任意确定 ,在一维方向上从被测物体8的起始端到末端设置多个采集位置,每个 位置上均采集条纹立体图像对,如图3所示,采集左条纹图像lL1、lL2、 lL3、lL4…lLV和右条纹图像lR1、lR2、lR3、lR4…lRV,并按采集的先后顺序 编号,把各位置处的条纹图像合成为该深度面的一幅左条纹参考图像 和一幅右条纹参考图像。

2、同一深度面不同节点位置处的原始图像配准

使旋转台9沿深度面平面图像采集方向13等角度旋转,对采集的同一深 度面不同节点位置处的原始立体图像对,采用通用的形状匹配方法建 立各节点位置处图像的配准。每一深度面第一节点位置采集的原始立 体图像对保存为左原始参考图像和右原始参考图像,左原始参考图像 和右原始参考图像分别生成各自的模板图像S21。通过形状匹配方法计 算左原始图像序列S1的仿射参数S23,根据仿射参数对该深度面各节点 位置处的图像进行变换,并与左原始参考图像进行配准,生成该深度 面的左原始合成图像。该深度面的右原始合成图像的生成方法与左原 始合成图像的生成方法相同。

3、条纹图像的合成与配准

同一深度面各位置处采集的左条纹图像合成在一幅图像中,形成该深 度面的左条纹参考图像,所有深度面的左条纹参考图像的集合即为左 深度面条纹参考图像序列S5,通过对左深度面条纹参考图像序列S5的 融合而成为左条纹融合图像S11,提取左条纹融合图像S11的边缘,根 据左条纹图像采集时的编号寻找左条纹参考图像的对应条纹边缘,保 存像素位置,完成配准。右条纹图像的合成与配准过程和左条纹图像 的合成与配准过程相同。

4、基于深度面条纹参考图像序列的不同深度面原始合成图像序列的融 合

同一深度面不同节点位置处采集的原始立体图像对经过配准之后成为 描述该深度面360度整体信息的一幅原始合成图像,对于大深度被测对 象,需沿体视显微镜5中心轴的纵向设置多个深度面,在不同深度面上 布置节点采集图 像,不同深度面的节点图像经过相同过程的配准之后形成不同深度面 的原始合成图像序列S102。以不同深度面条纹参考图像序列S101和不 同深度面原始合成图像序列S102作为输入量,使用通用边缘像素检测 方法提取深度面条纹参考图像序列S101的边缘,对图像进行网格划分 ,网格内的边缘梯度作为输入量建立清晰度评价函数, 

然后计算出每层深度面图像像素的清晰度,根据清晰度判别结果,对 两类图像分别进行融合,输出融合后的条纹融合图像和原始融合图像 。

5、基于条纹参考图像序列的原始立体图像对局部匹配

条纹参考立体图像对经过配准后,输出条纹边缘像素对应的视差。在 左原始图像中以相邻条纹的相邻边缘为界线,获得界线区域内的左原 始图像像素,根据条纹所对应的图像采集时的编号,使用通用的立体 匹配算法进行局部匹配和约束检测,再根据相邻条纹的相邻边缘像素 视差进行检验,完成局部匹配。右原始图像的局部匹配过程与左原始 图像的局部匹配过程相同,最后输出条纹边缘像素视差值和局部区域 内左原始图像和右原始图像像素的视差值。

6、三维数据计算

三维操作台使用多个步进电机控制,能够实时提供空间位移,把三维 操作台的位移数据作为矫正和标定用数据输入视觉反演模型,同时把 条纹边缘像素视差和局部原始图像像素视差也代入通用的视觉反演模 型,三维操作台的位移数据作为参考基准修正视觉反演模型的计算结 果,计算匹配像素对应的物空间坐标,输出空间点云。

7、输出长度、宽度、高度和立体图形

通过三角剖分拟合空间点云,对点云网格化,进行点云位置约束检测 ,剔除异常点,生成规则的立体图形,输出被测对象的长度、宽度和 高度等立体信息。

本发明所涉及的多视角大深度显微立体视觉特征融合测量方法对现有 的 体视显微镜视觉系统做了改进,增加辅助条纹投影系统1、三维操作台 4、旋转台9和横向位移台10构成新的复合式体视显微镜显微立体视觉 测量系统。基于该系统提出了适用于大深度被测微观对象的立体测量 方法,通过“桶形”的原始图像采集方式和条纹图像的参与,形成了 新的基于条纹图像的配准、合成和融合方法,克服了传统匹配方法导 致的大量错匹配和误匹配现象,能够输出条纹视差数据和局部原始图 像视差数据。该方法能够解决显微立体测量中的遮挡和大尺度微观对 象精密测量问题,从本质上克服现有体视显微镜视觉测量方法存在的 技术瓶颈。

附图说明

图1为本发明涉及的复合式体视显微镜显微立体视觉测量系统

图2为本发明涉及的“桶形”图像采集结构

图3为本发明涉及的原始立体图像对和条纹立体图像对结构

图4为本发明涉及的多视角大深度显微立体视觉特征融合测量方法组成

图5为本发明涉及的同一深度面不同节点位置处的图像,即原始图像序 列的配准方法

图6为本发明涉及的不同深度层图像融合方法

图7为本发明涉及的条纹配准和条纹边界局部匹配方法

附图中标记说明

1、辅助条纹投影系统

2、条纹投影系统光源支架

3、载物台

4、三维操作台

5、体视显微镜

6、左相机

7、右相机

8、被测物体

9、旋转台

10、横向位移台

11、计算机

12、深度面纵向图像采集方向

13、深度面平面图像采集方向

14、移动台控制器

15、环形光源

16、左相机固定架

17、右相机固定架

18、显微物镜

K11、第1深度面第1节点位置

K12、第1深度面第2节点位置

K1N、第1深度面第N节点位置

K21、第2深度面第1节点位置

K22、第2深度面第2节点位置

K2N、第2深度面第N节点位置

KM1、第M深度面第1节点位置

KM2、第M深度面第2节点位置

KMN、第M深度面第N节点位置

Plane_1、第1深度面

Plane_2、第2深度面

Plane_M、第M深度面

P_1、第1深度面节点集合

P_2、第2深度面节点集合

P_M、第M深度面节点集合

IL1、左原始图像

IR1、右原始图像

IL2、左条纹图像

IR2、右条纹图像

lL1、左条纹图像中第1条条纹

lL2、左条纹图像中第2条条纹

lL3、左条纹图像中第3条条纹

lL4、左条纹图像中第4条条纹

lLV、左条纹图像中第V条条纹

lR1、右条纹图像中第1条条纹

lR2、右条纹图像中第2条条纹

lR3、右条纹图像中第3条条纹

lR4、右条纹图像中第4条条纹

lRV、右条纹图像中第V条条纹

具体实施方式

现结合附图对本发明作进一步详细阐述。图1-图7显示本发明涉及的多 视角大深度显微立体视觉特征融合测量方法的流程图,如图所示,多 视角大深度显微立体视觉特征融合测量方法包括以下步骤:

1、“桶形”节点结构原始图像采集及条纹图像采集

使用图1中的复合式体视显微镜显微立体视觉测量系统以“桶形”方式 采集原始立体图像对,体视显微镜5采用通用的双目结构式光学显微镜 ,左相机6和右相机7的分别率为1280×1024。移动台控制器14使用脉 冲式可分频的控制器,最高输出频率大于1MHz, 三维操作台4、旋转 台9、横向位移台10通过步进电机驱动。辅助条纹投影系统1使用通用 的线结构光激光器(COHERENT公司生产),线宽小于25微米。

“桶形”节点结构由深度面和节点构成,通过计算机11控制三维操作 台4沿深度面纵向图像采集方向12等间隔移动,间隔距离任意确定,产 生不同 的参考面,第1深度面Plane_1是起始参考面,使用体视显微镜5的聚焦 面作为第1深度面Plane_1,然后在第1深度面Plane_1上任意设定第一 深度面第1节点K11,以K11为起点,通过计算机11控制旋转台9沿深度面 平面图像采集方向13等角度旋转,分别得到K12- K1N多个节点,节点间 的角度α=360°/N,在节点位置处停留一定时间,采集此处的原始立 体图像对。在第1深度面Plane_1采集完所有节点图像后,调整旋转台 9旋转回第一深度面第一节点K11位置,然后通过计算机11控制三维操作 台4沿深度面纵向图像采集方向12等间隔移动,间隔角度任意确定,产 生第2-第M深度面,在不同深度面上以与第1深度面相同的节点方式采 集图像,获得其他深度面上各节点的原始立体图像对。

在每层深度面的第一节点位置采集的原始立体图像对作为该深度面的 左原始参考图像和右原始参考图像。各深度面的第一节点位置,即K11、K21…KM1处采集的所有原始图像的集合即为原始参考图像序列,同一 深度面不同节点位置,即K11、K12…K1N,K21、K22…K2N…KM1、KM2…KMN处采 集的所有原始图像的集合即为该深度面的原始图像序列。该深度面的 左原始图像序列S1以左原始参考图像为基准进行配准,合成为该深度 面的左原始合成图像,该深度面的右原始图像序列S6的配准与合成与 左原始图像序列S1的配准与合成方法相同。在每层深度面的第一节点 位置处采集条纹图像,通过计算机11控制横向位移台10带动旋转台9和 被测物体8沿与条纹垂直方向一维等间隔移动,间隔距离任意确定,在 一维方向上从被测物体8的起始端到末端设置多个采集位置,每个位置 上均采集条纹立体图像对,如图3所示,采集左条纹图像lL1、lL2、lL3、 lL4…lLV和右条纹图像lR1、lR2、lR3、lR4…lRV,并按采集的先后顺序编号 ,把各位置处的条纹图像合成为该深度面的左条纹参考图像和右条纹 参考图像。所有深度面的条纹参考图像的集合即为条纹参考图像序列 S101。

图像采集的具体方法如下:

(1) 控制三维操作台4移动,把被测对象调整到体视显微镜5物空间的 中心位置,然后调整三维操作台4沿深度面纵向图像采集方向12移动, 确定第1深度面Plane_1为体视显微镜5的聚焦面;

(2) 辅助条纹投影系统1使用激光线结构光光源。关闭体视显微镜5的 环形光源15,启动辅助条纹投影系统1,在第1深度面Plane_1中,通过 计算机11控制横向位移台10带动旋转台9和被测物体8沿与条纹垂直方 向一维等间隔移动,间隔距离任意确定,在每个位置均采集一次条纹 立体图像对,采集完毕后合成,把所有条纹放置在同一立体图像对中 ,并记录各位置图像对应的编号lL1- lLV,lR1- lRV

(3) 开启环形光源15,关闭辅助条纹投影系统1,在第1深度面Plane _1中,沿深度面平面图像采集方向13调整旋转台9,在第1深度面Plane _1中第1节点位置K11处采集原始立体图像对,第一深度面第一节点位置 K11任意确定,原始图像为不包含条纹的被测对象的图像。然后控制旋 转台9沿深度面平面图像采集方向13间隔旋转,间隔角度α=360°/N, 分别在节点位置K12-K1N处采集原始立体图像对,保存图像,记录下图像 的编号。采集完第1深度面Plane_1的所有节点图像后,调整旋转台9沿 深度面平面图像采集方向13旋转回第一深度面第一节点K11位置;

(4) 控制三维操作台4沿深度面纵向图像采集方向12移动,分别在第 2参考面Plane_2-第M参考面Plane_M中以图像在第1参考面Plane_1中的 方式采集条纹和原始图像,获得一系列节点位置处的原始立体图像对 ;

(5) 图像采集完毕后,节点按图2所示的“桶形”结构排列。

2、同一深度面不同节点位置处的原始图像配准

从左原始参考图像序列S4中选择各深度面的左原始参考图像并生成模 板图像S21,采用通用的形状匹配方法S22,如灰度匹配、相关匹配、特 征匹配等建立同一深度面不同节点位置处图像的特征模板匹配关系, 计算左原始图像序列S1的仿射参数S23,根据仿射参数把该深度面各节 点位置处的左原始图像 与该深度面的左原始参考图像进行配准,合成为该深度面对应的左原 始合成图像。该深度面的右原始合成图像的生成方法与左原始合成图 像的生成方法相同。所有深度面的原始合成图像的集合即为原始合成 图像序列S102。

3、条纹图像的合成与配准

通过计算机11控制横向位移台10带动旋转台9和被测物体8沿与条纹垂 直方向一维等间隔移动,间隔距离任意确定,在一维方向上从被测物 体8的起始端到末端设置多个采集位置,如图3所示,每一次采集的条 纹立体图像对均保存为左条纹图像和右条纹图像。将此深度面各位置 处采集的左条纹图像合成在一幅图像中,形成该深度面的左条纹参考 图像,所有深度面的左条纹参考图像的集合即为左深度面条纹参考图 像序列S5,通过对左深度面条纹参考图像序列S5的融合而成为左条纹 融合图像S11,左条纹融合图像S11包含了清晰的条纹,采用通用的边 缘提取方法,如小波变换法、神经网络法、Sobel算子等提取左条纹融 合图像S11的边缘,根据左条纹图像采集时的编号建立左条纹图像中边 缘的一对一配准关系。右条纹图像的合成与配准过程和左条纹图像的 合成与配准过程相同。最后输出左图像中条纹像素与右图像中条纹像 素之间的视差。

4、基于深度面条纹参考图像序列的不同深度面原始合成图像序列的融 合条纹参考图像序列S101包括左深度面条纹参考图像序列S5和右深度 面条纹参考图像序列S9,每层深度面条纹参考图像序列S101的清晰度 与同层深度面原始合成图像序列S102具有相同的清晰度分布规律。采 用通用的边缘提取方法,如小波变换法、神经网络法、Sobel算子等提 取不同深度层的条纹参考图像序列S101的边缘,对每一深度面的整幅 图像进行网格划分。基于网格中的边缘梯度使用通用清晰度评价函数 确定图像清晰度,剔除图像中不清晰的网格,保留图像清晰的部分, 然后对不同深度层对准后的原始合成图像序列S102进行融合,输出最 后的融合后图像S104。不同深度层的条纹参考图像序列S101的融合过 程同步进行,输出左右条纹融合图像S11和S14。

5、基于条纹参考图像序列的原始立体图像对局部匹配

根据左条纹融合图像S11与右条纹融合图像S12包含的条纹边缘线,相 邻的两条条纹具有四条边缘,中间相邻边缘之间的区域未被条纹覆盖 ,以这两条边缘作为区域界线,确定局部区域,左原始图像和右原始图 像划分过程相同。在左原始融合图像S12与右原始融合图像S13中提取 局部区域中的像素,局部区域的编号与条纹所对应的图像采集时的编 号一致,采用通用的匹配方法,如相关法、灰度匹配法、特征匹配法 等建立左原始图像和右原始图像对应局部区域原始图像的匹配关系, 输出左原始图像和右原始图像匹配点的视差。如果条纹足够密集,局 部区域的两边缘界线视差梯度和区域内像素原始图像像素的视差梯度 满足线性关系,依据此条件对输出的原始图像匹配点进行检验,剔除 线性度较差的异常像素。

6、三维数据计算

三维操作台4使用多个步进电机控制,能够实时提供空间位移。把三维 操作台4的位移数据作为矫正和标定用数据输入视觉反演模型。以条纹 边缘像素视差为主体,原始图像匹配像素视差为辅助,采用通用视觉 反演模型,如透视投影模型、小孔成像模型等计算条纹匹配像素与原 始图像匹配像素对应的空间点坐标,输出空间点云。以条纹边缘像素 视差为主、原始图像视差为辅的方法能够满足更多的重构环境,在条 纹较稀疏时同样可用,区别于传统体视显微镜视觉测量完全依赖原始 图像匹配像素的方法,保证更高的数据重构精度。

7、输出长度、宽度、高度和立体图形

通过三角剖分拟合空间点云,对点云网格化,进行点云位置约束检测 ,剔除异常点,生成规则的立体图形,输出被测对象的长度、宽度和 高度等立体信息。

对本领域的技术人员来说,很明显,本发明可以做出多种改进和变化 ,只要落入所附的权利要求书及其等同的范围内,本发明就涵盖本发 明的这些改进和变化。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号