首页> 中国专利> 一种基于交互式图像分割的立体匹配方法

一种基于交互式图像分割的立体匹配方法

摘要

本发明涉及一种基于交互式图像分割的立体匹配方法,其是采用基于交互式图像分割的图割算法分割出用户感兴趣物体,由分割模版生成优化的网络图,调用图割算法对网络图进行最小分割计算,生成视差图,得到立体匹配结果,本发明有效利用了分割信息,减少了运算量,利用图割算法全局最优的特性得到了精确的匹配结果,实验结果表明本发明方法对于遮挡、深度不连续、光照变化、低纹理、无纹理区域等均取得了良好的效果,并且在运算时间和计算精度上都有明显的提高。

著录项

  • 公开/公告号CN105005988A

    专利类型发明专利

  • 公开/公告日2015-10-28

    原文格式PDF

  • 申请/专利权人 陕西师范大学;

    申请/专利号CN201510373989.5

  • 发明设计人 刘侍刚;王雅宁;

    申请日2015-06-30

  • 分类号

  • 代理机构西安永生专利代理有限责任公司;

  • 代理人曹宇飞

  • 地址 710062 陕西省西安市长安南路199号

  • 入库时间 2023-12-18 11:38:13

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2018-03-06

    授权

    授权

  • 2015-11-25

    实质审查的生效 IPC(主分类):G06T7/00 申请日:20150630

    实质审查的生效

  • 2015-10-28

    公开

    公开

说明书

技术领域

本发明属于计算机图像处理技术领域,特别涉及一种基于交互式图像分 割的立体匹配方法。

背景技术

立体匹配技术是近年来计算机领域广泛关注的难点和热点,它的目的是 通过匹配两幅或多幅图像来获得视差图,由视差图与深度的比例关系恢复出 对应像素点的深度信息,以便可以计算出场景中三维信息,在机器人导航、 工业控制、无人驾驶汽车等方面有广泛的应用。

由于图割算法具有组合优化的良好性能,使视差图的质量得到了明显的 提高,并且能够较好的处理低纹理区域和遮挡像素,近年来,国内外学者对 基于图割算法的立体匹配问题做了大量工作。

Roy最早在1998年电气和电子工程师协会第六次会议上提出的论文《一 种基于最大流算法的多摄像机立体匹配问题》中(Roy S,Cox I J.A  maximum‐flow formulation of the n‐camera stereo correspondence  problem[C]//Computer Vision,1998.Sixth International Conference on.IEEE, 1998:492‐499.)应用图割算法进行立体匹配,并通过实验证明,图割算法能 有效克服其他全局优化算法(动态规划算法等)生成视差图产生的横向条纹瑕 疵,避免了视差在临近极线处不连续的问题。但是该算法生成的视差图轮廓 边缘非常不明显,视差层的区分也不够准确。Boykov与Kolmogorov在2004 年于模式分析与机器智能汇刊上发表的论文《一种新的最大流/最小割算法在 有关视觉能量函数最小化中的应用》中提出(Boykov Y,Kolmogorov V.An  experimental comparison of min‐cut/max‐flow algorithms for energy minimization  in vision[J].Pattern Analysis and Machine Intelligence,IEEE Transactions on,2004, 26(9):1124‐1137)可以在满足特定约束条件的基础上构造能量函数,并通过 改进的基于增广路最大流算法进行能量函数的最小化,将该图割算法应用于 立体匹配等计算机视觉问题,效果显著优于常用的Push‐relabel,Dinic等算法。 该方法虽然效果出众,但构建网络图时生成了大量节点空间复杂度较高,运 算过程需要多次迭代,理论时间复杂度为O(mn2|C|),无法达到实时计算的要 求。Li等在国际计算机视觉与模式识别会议上发表的论文《基于分割的图割立 体匹配方法》(Hong L,Chen G.Segment‐based stereo matching using graph  cuts[C]//Computer Vision and Pattern Recognition,2004.CVPR 2004.Proceedings  of the 2004IEEE Computer Society Conference on.IEEE,2004,1:I‐74‐I‐81Vol.1.) 中首次提出基于无重叠视差区域分割的立体匹配,并用分割块的能量最小化 取代了常用图割算法像素级的能量最小化,降低了算法的时间复杂度,在低 纹理与遮挡区域效果良好,但生成的视差图边缘处有毛刺现象。Bleyer等在期 刊:信号处理上发表的论文《基于图割算法的对称遮挡处理立体匹配方法》 (Bleyer M,Gelautz M.Graph‐cut‐based stereo matching using image  segmentation with symmetrical treatment of occlusions[J].Signal Processing: Image Communication,2007,22(2):127‐143.)中假设在图像每个分割块中的视 差都是平滑的,且视差边界恰好与分割边界重合,提出了基于图像分割的立 体匹配算法框架,通过彩色图像分割将场景分成不同区域,并计算初始视差 图,之后生成平面模板描述,结合区域合并等手段,得到了分割区域视差层的 优化分配,但该方法无法得到像素级的最优分配,且复杂度高,计算量大。 Bleyer与Rother等在国际计算机视觉与模式识别会议上发表的论文《基于物 体分割的立体匹配方法》(Bleyer M,Rother C,Kohli P,et al.Object stereo—joint  stereo matching and object segmentation[C]//Computer Vision and Pattern  Recognition(CVPR),2011IEEE Conference on.IEEE,2011:3081‐3088.)针对现有 采用基于低尺度分割,将图像分割成超像素形式从而减少图割算法生成节点 的立体匹配方法。假设相同物体具有紧凑,连接并且物体表面视差变化平滑 等特性,提出了一种新的基于物体分割的立体匹配方法。该算法在物体分割 与视差获取上效果良好,但是运行时间缓慢,对于物体和背景的内部区域缺 少纹理的深度信息,并且物体间细小区域也无法区分属于背景还是其他物体。

发明内容

本发明针对于以往基于图像分割的立体匹配办法计算量大,运算框架复 杂,实现难度高,没有充分利用分割信息等问题,提出了一种在图像分割时 采用基于交互的快速图割方法获得感兴趣物体,只针对感兴趣物体的前景模 版进行立体匹配并且运算量小、匹配结果精确的基于交互式图像分割的立体 匹配方法。

为了实现上述目的,本发明所采用的技术方案是该基于交互式图像分割的 立体匹配方法由以下步骤实现:

(1)感兴趣目标的分割

(1.1)在双目立体视觉系统中,针对采集到的已经标定好并符合外极线 约束的左、右两幅彩色视图,用户根据需要,分别在两幅视图中设置前景和 背景的种子点,标记出前景物体和背景物体;

(1.2)针对(1.1)中标记好的左、右视图,分别采用基于图割算法的交 互式图像分割方法分割出用户感兴趣物体;

(1.3)用户判断所分割出的感兴趣物体是否满足需要,若分割结果不满 意,则返回步骤(1.1)重新设置前景和背景种子点或者在步骤(1.2)的分割 结果基础上在原图像上重新设置前景和背景的种子点;若分割结果满意,得 到前景图像和分割模版,进行下一步操作:

(2)由分割模版生成优化的网络图,调用图割算法对网络图进行最小分 割计算,生成视差图,得到立体匹配结果;

(2.1)在步骤(1.3)获取的两幅前景图像上针对前景物体通过线性插值 算法添加亚像素信息;

(2.2)将添加了亚像素信息的前景图像中的RGB三个通道分别乘以其对 应的权值,得到视差边的容量,再根据左视图像素在右视图对应处的四邻域 中的灰度向量分别求其平方差,计算得到光滑边的容量,源点汇点连接边的 容量取1000~10000的整数;

(2.3)根据前景图像中的前景部分建立优化的网络图,在网络图上添加 步骤(2.2)所得的视差边的容量和光滑边的容量以及连接源点和汇点的边的 容量,调用图割算法进行立体匹配,从而得到视差图。

上述步骤(2.2)中视差边的计算方法是:

c(ep,i+1)={(IR1(P)-IR2(P+li+1))2ΔR+(IB1(P)-IB2(P+li+1))2ΔB

+(IG1(P)-IG2(P+li+1))2ΔG}

其中:对任意两幅视图中像素P∈I,下标R,B,G,分别代表彩色图像 对应的红色,蓝色,绿色通道;1,2分别表示左视图和右视图;li为可能的视 差标注;i=0,1,...n-1,IR1为左视图中的红色通道,IR2为右视图中的红色通道, IB1为左视图中的蓝色通道,IB2为右视图中的蓝色通道,IG1为左视图中的绿色 通道,IG2为右视图中的绿色通道;ΔRBG为前景图像中红色,蓝色,绿色各 个通道的权值,其分别取0.29,0.11,0.58。

上述步骤(2.2)中光滑边的计算方法是:

c(p,q)=||G1(p)-G2(p+li+1)||2

其中:p,q为图像中相邻两像素,光滑边有四条,对应像素P处的四个邻 域;G1(p)为左视图中与p相邻像素q的色彩向量;G2(p+li+1)为左视图中相素p 在右视图的匹配像素p+li+1与其相邻像素q的色彩向量。

上述步骤(2.3)中将前景图像中的前景部分建立网络图具体是由以下步 骤实现:

(2.3.1)建立3维坐标系O-XYZ,把图像左视图I1置于OXY平面,得I1的 原点,X轴、Y轴与OXY平面的原点以及相应的轴重合;

(2.3.2)在Z轴的正半轴上,从原点开始等距离的放置向量l0,l1,...ln-1,在 I1即原点O的地方放置q0,对于i=0,1,...n-1(n为可能的视差标注范围)在li和 li+1的中点放置点qi,最后在ln处放置qn

(2.3.3)记(P;qi)=:(px,py,qi)为立方体网格上的节点,N(P)为像素点P的 邻域;在网络图两端分别添加两个节点,即源点S,汇点T,并在S到I1中每 个属于左视图分割模版中标记为前景的像素点之间添加一个边,在T到集合 {(px,py,qn)|(px,py)∈I1}即立方体网络上与OXY平面相对的另一个面上的节点, 添加对应到汇点的边,得到网络图;

(2.3.4)根据步骤(2.2)的方法给视差边和光滑边,以及连接源点和汇 点的边赋值,调用图割算法对网络图进行最小分割运算,根据运算结果得到 视差图。

本发明基于交互式图像分割的立体匹配方法有效利用了分割信息,减少 了用图割算法进行立体匹配的运算量,利用图割算法全局最优的特性得到了 精确的匹配结果,实验结果表明本发明方法对于遮挡、深度不连续、光照变 化、低纹理、无纹理区域等均取得了良好的效果,并且在运算时间和计算精 度上都有明显的提高。

与现有技术相比主要具有以下优点:

1)现有基于图像分割的立体匹配方法都是采用自动化的分割算法,而 本方法采用基于交互式图像分割的图割算法,也不需要使用其他昂贵的传感 器,直接采用传统的双目视觉手段实现;

2)利用图割方法进行了两大关键步骤,图像分割和立体匹配,从而将网 络图统一起来利用,这样减少了网络图中的构建节点,有效利用了分割信息, 减少了匹配算法的运行时间;

3)在图像x轴方向采用线性插值增加了亚像素精度,并针对彩色图像采 用分通道加权处理进一步提高匹配算法的精度。

附图说明

图1为实施例1中基于交互式分割的感兴趣目标提取流程图。

图2为实施例1中Tsukuba左视图种子点设置示意图。

图3为实施例1中Tsukuba右视图种子点设置示意图。

图4为实施例1中Tsukuba左视图分割不满意的视图结果示意图。

图5为Tsukuba左视图新添加的种子点设置示意图。

图6为Tsukuba左视图分割结果示意图。

图7为Tsukuba右视图分割结果示意图。

图8为Tsukuba左视图分割模板。

图9为基于优化网络图的图割算法立体匹配流程图。

图10为视差边和光滑边示意图。

图11为实施例1所建立的网络图。

图12为实施例3的Sawtooth左视图种子点设置示意图。

图13为实施例3的Sawtooth右视图种子点设置示意图。

图14为实施例3的sawtooth左视图分割结果。

图15为实施例3的sawtooth右视图分割结果。

图16为实施例3的sawtooth左视图分割模版。

图17为实施例3的sawtooth视差图。

图18为Tsukuba标准视差图。

图19为实施例1的方法所得的Tsukuba视差图。

图20为实施例2福克森图割算法所得到的Tsukuba视差图。

图21为SAD算法所得Tsukuba视差图。

图22为原图。

图23为标准视差图。

图24为对图22的原图按照实施例1的方法进行分割所得分割模板。

图25为用实施例1的方法对图22进行立体匹配所得视差图。

具体实施方式

现结合附图和实施例对本发明的技术方案进行进一步说明,但是本发明 不仅限于下述的实施情形。

实施例1

以Tsukaba图像对为例,所测试环境为windows 7 64位系统,CPU为 3.0GHz,内存8G,编译器为Visual Studio 2010。

按照本发明的方法进行立体匹配,具体步骤如下:

(1)感兴趣目标的分割,流程如图1所示。

(1.1)用户根据需要,在Tsukaba图像的左、右视图中分别设置种子点, 标记出前景图像和背景图像,将背景部分标记为蓝色,前景部分标记为红色; 如图2、图3。

(1.2)在左右视图中分别采用基于颜色索引值的图像分割方法分割出用 户感兴趣物体;

基于颜色索引值的图像分割方法是引用维斯勒等于2013年发表在国际 计算机视觉大会上的论文《一次性快速图割算法》(Tang M,Gorelick L,Veksler O, et al.GrabCut in One Cut[C]//Computer Vision(ICCV),2013IEEE International  Conference on.IEEE,2013:1769‐1776.)所公开的方法。

(1.3)用户判断所分割出的感兴趣物体满足需要,若分割结果不满意, 如图4,则在步骤(1.1)的分割结果基础上在原图像上重新添加新的前景和 背景的种子点,如图5;若分割结果满意,如图6、7,得到分割模版,参见 图8,进行下一步操作;

(2)由分割模版生成优化的网络图,调用图割算法对网络图进行最小割 计算,生成视差图,得到立体匹配结果,流程如图9所示,具体是:

(2.1)在步骤(1.3)的分割模版前景图像上通过线性插值算法添加亚像 素信息,进一步提高了匹配精度;

本实施例的线性插值算法k值取3,在原图像的基础上每个像素间根据线 性插值算法再添加3个亚像素。

(2.2)如图10所示,将添加了亚像素信息的前景图像中的RGB三个通 道分别乘以其对应的权值,得到视差边的容量;计算方法是:

c(ep,i+1)={(IR1(P)-IR2(P+li+1))2ΔR+(IB1(P)-IB2(P+li+1))2ΔB

+(IG1(P)-IG2(P+li+1))2ΔG}

其中:对任意两幅视图中像素P∈I1,i=0,1,...,n-1,下标R,B,G,分别代 表彩色图像对应的红色,蓝色,绿色通道,li为可能的视差标注,i的范围从0 到n‐1,IR1为左视图中的红色通道,IR2为右视图中的红色通道,IB1为左视图 中的蓝色通道,IB2为右视图中的蓝色通道,IG1为左视图中的绿色通道,IG2为 右视图中的绿色通道;ΔRBG为前景图像中红色,蓝色,绿色各个通道的权 值,其分别取0.29,0.11,0.58。

光滑边的容量按照下述公式计算:

c(p,q)=||G1(p)-G2(p+li+1)||2

其中p,q为图像中相邻两像素,光滑边有四条,对应像素P处的四个邻域, G1(p)为左视图中与p相邻像素q的色彩向量(即彩色图像RGB像素值映射在 三维空间的一个向量),G2(p+li+1)为左视图中相素p在右视图的匹配像素p+li+1与其相邻像素q的色彩向量;源点和汇点的连接边的容量取足够大的整数, 本实施例取1000。

(2.3)根据前景图像中的前景部分建立优化的网络图,参见图11,在网 络图上添加步骤(2.2)所得的视差边的容量和光滑边的容量,以及连接源点 和汇点的边的容量,调用图割算法进行立体匹配,从而得到视差图,具体是:

(2.3.1)建立3维坐标系O-XYZ,把图像I1(左视图)置于OXY平面, 得I1的原点,X轴、Y轴与OXY平面的原点以及相应的轴重合。

(2.3.2)在Z轴的正半轴上,从原点开始等距离的放置向量l0,l1,...ln-1,在I1即原点O的地方放置q0,对于i=0,1,...,n-1(n为可能的视差标注范围,本实施例 对于Tsukuba图像对,n取16),在li和li+1的中点放置点qi,最后在ln处放置qn

(2.3.3)记(P;qi)=:(px,py,qi)为立方体网格上的节点,N(P)为像素点P的 邻域,在网络图两端分别添加两个节点,即源点S,汇点T,并在S到I1(左 视图)中每个属于左视图分割模版中标记为前景的像素点之间添加一个边, 在T到集合{(px,py,qn)|(px,py)∈I1}即立方体网络上与OXY平面相对的另一个面 上的节点,添加对应到汇点的边,得到网络图;

(2.3.4)根据步骤(2.2)中的方法给视差边和光滑边以及连接源点和汇 点的边赋值,最后调用图割算法对网络图进行最小分割运算,根据运算结果 得到视差图。

本实施例的图割算法是依照Boykov与Kolmogorov在2004年于模式分析 与机器智能汇刊上发表的论文《一种新的最大流/最小割算法在有关视觉能量 函数最小化中的应用》中提出(Boykov Y,Kolmogorov V.An experimental  comparison of min‐cut/max‐flow algorithms for energy minimization in vision[J]. Pattern Analysis and Machine Intelligence,IEEE Transactions on,2004,26(9): 1124‐1137)的改进的图割算法。

实施例2

在本实施例中,步骤(1.3)具体是:用户判断所分割出的感兴趣物体满 足需要,若分割结果不满意,则返回步骤(1.1)重新设置种子点;若分割结 果满意,得到分割模版,进行下一步操作。

步骤(2.3)中所调用的图割算法还可以引用1956年,L.R.福特和D.R.富 尔克森等人发明的福克森最大流算法(Ford‐Fulkerson算法)。

其他的步骤与实施例1相同,得到视差图。

实施例3

在本实施例中,以sawtooth图像对为例,按照本发明的方法进行立体 匹配,具体步骤如下:

(1)感兴趣目标的分割,具体为:

(1.1)用户根据需要,在sawtooth图像的左、右视图中分别设置种子点, 标记出前景图像和背景图像,将背景部分标记为蓝色,前景部分标记为红色; 如图12、图13。

(1.2)在左右视图中分别采用基于颜色索引值的图像分割方法分割出用 户感兴趣物体;

基于颜色索引值的图像分割方法是引用维斯勒等于2013年发表在国际 计算机视觉大会上的论文《一次性快速图割算法》(Tang M,Gorelick L,Veksler O, et al.GrabCut in One Cut[C]//Computer Vision(ICCV),2013IEEE International  Conference on.IEEE,2013:1769‐1776.)所公开的方法。

(1.3)用户判断所分割出的感兴趣物体满足需要,若分割结果不满意, 则在步骤(1.1)的分割结果基础上在原图像上重新添加新的前景和背景的种 子点;若分割结果满意,如图14、15,得到分割模版,参见图16,进行下一 步操作;

(2)由分割模版生成优化的网络图,调用图割算法对网络图进行最小割 计算,生成视差图,得到立体匹配结果,具体是:

(2.1)在步骤(1.3)的分割模版前景图像上通过线性插值算法添加亚像 素信息,进一步提高了匹配精度;

本实施例的线性插值算法k值取4,在原图像的基础上每个像素间根据线 性插值算法再添加4个亚像素。

(2.2)将添加了亚像素信息的前景图像中的RGB三个通道分别乘以其对 应的权值,得到视差边的容量;计算方法是:

c(ep,i+1)={(IR1(P)-IR2(P+li+1))2ΔR+(IB1(P)-IB2(P+li+1))2ΔB

+(IG1(P)-IG2(P+li+1))2ΔG}

其中:对任意两幅视图中像素P∈I1,i=0,1,...,n-1,下标R,B,G,分别代 表彩色图像对应的红色,蓝色,绿色通道,li为可能的视差标注,i的范围从0 到n‐1,IR1为左视图中的红色通道,IR2为右视图中的红色通道,IB1为左视图 中的蓝色通道,IB2为右视图中的蓝色通道,IG1为左视图中的绿色通道,IG2为 右视图中的绿色通道;ΔRBG为前景图像中红色,蓝色,绿色各个通道的权 值,其分别取0.29,0.11,0.58。

光滑边的容量按照下述公式计算:

c(p,q)=||G1(p)-G2(p+li+1)||2

其中p,q为图像中相邻两像素,光滑边有四条,对应像素P处的四个邻域, G1(p)为左视图中与p相邻像素q的色彩向量(即彩色图像RGB像素值映射在 三维空间的一个向量),G2(p+li+1)为左视图中相素p在右视图的匹配像素p+li+1与其相邻像素q的色彩向量;源点和汇点的连接边的容量取足够大的整数, 本实施例取10000。

(2.3)根据前景图像中的前景部分建立优化的网络图,在网络图上添加 步骤(2.2)所得的视差边的容量和光滑边的容量,以及连接源点和汇点的边 的容量,调用图割算法进行立体匹配,从而得到视差图,具体是:

(2.3.1)建立3维坐标系O-XYZ,把图像I1(左视图)置于OXY平面, 得I1的原点,X轴、Y轴与OXY平面的原点以及相应的轴重合。

(2.3.2)在Z轴的正半轴上,从原点开始等距离的放置向量l0,l1,...ln-1,在I1即原点O的地方放置q0,对于i=0,1,...,n-1(n为可能的视差标注范围,本实施例 对于Tsukuba图像对,n取16),在li和li+1的中点放置点qi,最后在ln处放置qn

(2.3.3)记(P;qi)=:(px,py,qi)为立方体网格上的节点,N(P)为像素点P的 邻域,在网络图两端分别添加两个节点,即源点S,汇点T,并在S到I1(左 视图)中每个属于左视图分割模版中标记为前景的像素点之间添加一个边, 在T到集合{(px,py,qn)|(px,py)∈I1}即立方体网络上与OXY平面相对的另一个面 上的节点,添加对应到汇点的边,得到网络图;

(2.3.4)根据步骤(2.2)中的方法给视差边和光滑边以及连接源点和汇 点的边赋值,最后调用图割算法对网络图进行最小分割运算,根据运算结果 得到视差图,参见图17。

上述实施例1~3中步骤(2.2)的源点和汇点的连接边的容量取值可以在 1000~10000之间任意取整数,在该范围内取值大小对后续的网络图的建立以 及视差图的获取均无明显差异。

为了验证本发明的有益效果,申请人通过大量的实验进行验证,实验的 图像来自米德柏利学院提供的著名立体匹配图像库: vision.middlebury.edu/stereo/data/,利用该图像库中提供的图像对进行多次实 验,测试环境为windows 7 64位系统,CPU为3.0GHz,内存8G,编译器为 Visual Studio 2010。

下面给出了Tsukaba图像的匹配效果如图18、19、20、21,其中图19 为本发明实施例1的方法所获得的视差图,图18为Tsukuba标准视差,图20 为福克森图割算法得到的视差图,图21为SAD算法所得视差图。

从视差图对比结果可以明显看出,相对于沙尔施泰因在计算机视觉国际 期刊上发表的论文《双目视觉中立体匹配算法的评价》中使用的局部立体匹 配算法SAD(Scharstein D,Szeliski R.A taxonomy and evaluation of dense  two‐frame stereo correspondence algorithms[J].International journal of computer  vision,2002,47(1‐3):7‐42.),以及1956年,L.R.福特和D.R.富尔克森等人发 明的福克森最大流算法(Ford‐Fulkerson算法),本发明所采用的方法取得了良好 的效果,并且最接近于标准视差。

同时,为了进一步验证本文算法对遮挡,深度不连续,光照变化,低纹 理、无纹理区域等匹配性能,本文对Middlebury平台提供的部分标准图像进 行实验,实验结果如图22、23、24、25所示。

从图22~25对比可以看出,本发明的方法对于遮挡,深度不连续,光照 变化,低纹理、无纹理区域取得了良好的效果。同时,本文使用错误匹配率 对实验结果进行定量的分析,错误匹配率结果如表1所示。

表1 错误率测试结果(%)

图像对 Tsukuba Sawtooth Map Baby1 本发明方法错误匹配率 4.65 2.76 4.63 5.27 原始图割方法错误匹配率 6.04 3.96 7.92 6.33 SAD方法错误匹配率 17.13 23.23 39.12 22.64

从表1可以看出与局部SAD方法、原始图割方法相比,本发明的图像分 割方法具有相当高的精度。

同时,为了比较方法的运算速度,本文统计了各个方法的运行时间,如 表2所示。

表2 运行时间测试结果(包含分割时间)(单位:s)

图像对 Tsukuba Sawtooth Map Baby1 本发明的图割方法 7.9 6.5 10.5 17.9 原始图割方法 14.7 19.3 23.4 38.6 SAD方法 1.06 0.97 0.93 1.17

从表2可以看出,由于相对于传统图割方法,本发明的图割方法只对分 割出的感兴趣区域生成了立体网格,所以避免了多余的计算,因此,相对于 全局优化的图割方法减少了运算时间。而且本发明方法精度远高于局部方法, 而SAD方法根据邻域窗进行横向匹配,仅能得到局部视差的近似解。

上述实施例中未详细记载的方法均属于本领域技术人员公知的内容。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号