首页> 中国专利> 基于极光谱图像的三维人脸识别方法

基于极光谱图像的三维人脸识别方法

摘要

本发明涉及一种基于极光谱图像的三维人脸识别方法,其步骤如下:1)人脸特征区域截取:以鼻尖为中心,选取合适的半径长度作一个球,利用球面的空间对称特征对人脸进行截取,也就是将包含在球内部的三维人脸曲面区域作为人脸特征区域。2)将截取的三维人脸区域映射到二维的平面上,对三维人脸的平面参数化。3)把三维人脸在平面上进行展开以后,通过二维图像处理方法,生成的极光谱图像。针对不同姿态下的人脸,构造出一种姿态无关的平面图像用来表示三维人脸,我们称这种图像为极光谱图像。4)利用算法来进行人脸极光谱图像识别。本发明有益的效果是:主要解决的是不同三维姿态与表情下的人脸识别问题。

著录项

  • 公开/公告号CN1648935A

    专利类型发明专利

  • 公开/公告日2005-08-03

    原文格式PDF

  • 申请/专利权人 浙江大学;

    申请/专利号CN200510049069.4

  • 发明设计人 潘纲;吴朝晖;郑磊;

    申请日2005-02-04

  • 分类号G06K9/00;

  • 代理机构33101 杭州九洲专利事务所有限公司;

  • 代理人陈继亮

  • 地址 310027 浙江省杭州市西湖区浙大路38号浙江大学计算机学院系统工程研究所

  • 入库时间 2023-12-17 16:21:02

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2020-07-28

    专利权的转移 IPC(主分类):G06K9/00 登记生效日:20200709 变更前: 变更后: 申请日:20050204

    专利申请权、专利权的转移

  • 2007-05-09

    授权

    授权

  • 2005-09-28

    实质审查的生效

    实质审查的生效

  • 2005-08-03

    公开

    公开

说明书

                                 技术领域

本发明涉及一种三维人脸识别方法,主要是一种以参数化和光谱为基础的新思路来处理三维人脸识别的基于极光谱图像的三维人脸识别方法。

                                 背景技术

计算机人脸识别由于其广泛的应用前景而得到了广泛的研究,迄今为止已经取得许多科研成果。由于在人脸面部表情、拍摄角度或拍摄光照等条件的变化下,得到的人脸照片中的特征不同,因此二维的人脸识别受到很大的限制。

为克服仅仅依赖于二维人脸照片的人脸识别方法在的不足,我们把目光转向三维人脸。随着三维扫描技术的发展,基于三维人脸的身份认证方法是目前的研究热点。虽然三维人脸比平面图像包含着更多的信息,但是对于三维人脸的处理并不是很成熟。一方面,对于姿态不同的人脸,在对齐上需要更多的计算时间;另一方面,由于人脸空间的不规则性,现有的空间统计和分析方法也很难直接应用到三维人脸上。

                                   发明内容

本发明的目的在于克服上述不足而提供一种基于极光谱图像的三维人脸识别方法,主要解决的是不同三维姿态与表情下的人脸识别问题。

本发明解决其技术问题所采用的技术方案。这种基于极光谱图像的三维人脸识别方法,其步骤如下:1)、人脸特征区域截取:以鼻尖为中心,选取合适的半径长度作一个球,利用球面的空间对称特征对人脸进行截取,也就是将包含在球内部的三维人脸曲面区域作为人脸特征区域。2)、将截取的三维人脸区域映射到二维的平面上,对三维人脸的平面参数化。3)、把三维人脸在平面上进行展开以后,通过二维图像处理方法,生成的极光谱图像。针对不同姿态下的人脸,构造出一种姿态无关的平面图像用来表示三维人脸,我们称这种图像为极光谱图像。4)、利用算法来进行人脸极光谱图像识别,极光谱图像可以很好的采用目前的二维识别算法进行人脸识别,实验结果表明FisherFaces对于人脸的极光谱图像具有理想的识别效果。

本发明有益的效果是:主要解决的是不同三维姿态与表情下的人脸识别问题。

                             附图说明

图1是本发明的三维人脸识别的流程图;

图2是本发明的简单三维网格的平面二维化示意图;

图3是本发明的采样示意图;

图4是本发明的ROC曲线和CMC曲线示意图。

                           具体实施方式:

下面结合附图和实施例对本发明作进一步描述。

一、本发明的整体思想:

三维人脸在空间分布中具有不规则性,现有表示方法无法很好的描述三维人脸。我们主要考虑以下三个方面:将三维平面映射到二维平面上时,如何保持三维人脸的识别信息最小缺失;对映射后的二维平面进行处理,如何使之与初始姿态无关;使用哪一种二维人脸识别方法来识别姿态无关图像。

二、本发明所述的这种基于极光谱图像的三维人脸识别方法,(如图1所示)其步骤如下:

1、人脸特征区域截取:

整个人脸的数据量很大,我们考虑去除一些包含的信息量比较少的点,从而达到信息和数据量的折衷。通过观察发现,人脸的特征主要分布在以鼻子为中心的部分。在这块区域中,包括了眼睛,嘴巴和鼻子等人脸的主要特征,他们对于人脸识别起着非常关键的作用。由于人脸在扫描时方向的不确定性,即使同一个人的扫描结果也存在方向上的差异性。这样使得空间截取时,需要考虑截取结果必须保证空间方向的无关性。

这里提出以鼻尖为中心,选取半径的长度大约为鼻尖到嘴角左右作一个球,使与人脸曲面相交,利用球面的空间对称特征对人脸进行截取,也就是将包含在球内部的三维人脸曲面区域作为人脸特征区域。特征区域包含人脸的眼睛,鼻子和嘴巴等主要特征。由于球体的空间对称性,所以不论人脸在空间的方向上如何变化,只要确定了球心,球与人脸曲面的相交区域就永远不变。这样就在截取特征区域的同时,保证了原始人脸的方向无关性。

2、将三维人脸映射到二维的平面上,对三维人脸的平面参数化;

目前对于三维物体还没有很好的一种分析和处理方法,但是对于二维图像的处理已经非常成熟。因此将三维人脸映射到二维的平面上,再用现有的二维图像处理方法进行分析,不但可以大大减少三维处理的复杂度,并且能够在对映射后的人脸进行比较复杂的图形分析和变换,从而得到比较好的识别结果。在映射时,由于维数的减少,信息的损失是必然的,因此在映射时,需要考虑识别信息的损失最小。对于三维人脸网格来说,其主要信息可以归结为角度信息和面积信息两种。我们用这两种信息的损失来估量人脸二维化中的信息损失度。为了更好的说明问题,我们首先考虑如图2所示的简单三维网格在映射中的信息损失。其角度和面积的信息损失可以由方程(1)(2)来计算。

1)角度信息损失:

>>>E>A>>=>>Σ>>neighbour>>>(>i>,>j>)>>>>cot>>α>ij>>>>|>>u>i>>->>u>j>>|>>2>>->->->>(>1>)>>>

2)面积信息损失:

>>>E>X>>=>>Σ>>j>∈>N>>(>i>)>>>>>>(>cot>>γ>ij>>+>cot>>δ>ij>>)>>>>|>>x>i>>->>x>j>>|>>2>>>>>(>>u>i>>->>u>j>>)>>2>>->->->>(>2>)>>>

平面化的关键问题就是如何使的得到的平面人脸损失的信息量最少。这里,我们考虑当EA和EX分别达到最小时,这两种情况对映射的结果的影响。从图2我们可以看出:在边界点固定的情况下,唯一的变量就是映射平面U’的中心点ui,因此EA和EX的变化是随着ui而变化的。当EA和EX取到最小值时,必然有

>>>>∂>>E>A>>>>∂>>u>i>>>>=>>Σ>>j>∈>N>>(>i>)>>>>>(>cot>>α>ij>>+>cot>>β>ij>>>)>>>(>>u>i>>->>u>j>>)>>=>0>->->->>(>3>)>>>

>>>>∂>>E>X>>>>∂>>u>i>>>>=>>Σ>>j>∈>N>>(>i>)>>>>>>(>cot>>γ>ij>>+>cot>>δ>ij>>)>>>>|>>x>i>>->>x>j>>|>>2>>>>(>>u>i>>->>u>j>>)>>=>0>->->->>(>4>)>>>

推广整个三维人脸,可以得到:

>>>M>A> >>>>U>inetrnal>>>>>>>U>boundary>>>>>>=>0>>>sup>>M>ij>Asup>>=> >>>cot>>(>>α>ij>>)>>+>cot>>(>>β>ij>>)>>>>if>>∈>N>>(>i>)>>>>>>->>Σ>>k>∈>N>>(>i>)>>>sup>>M>ik>Asup>>>>if>>=>j>>>>>0>>>Otherwise>>>>>->->->>(>5>)>>>

>>>M>X> >>>>U>inetrnal>>>>>>>U>boundary>>>>>>=>0>>>sup>>M>ij>Xsup>>=> >>>>(>cot>>(>>γ>ij>>)>>+>cot>>(>>β>ij>>)>>)>>/>>>|>>x>i>>->>x>j>>|>>2>>>>if>>∈>N>>(>i>)>>>>>>->>Σ>>k>∈>N>>(>i>)>>>sup>>M>ik>Xsup>>>>if>>=>j>>>>>0>>>otherwise>>>>>->->->>(>6>)>>>

当EA或EX分别达到最小时,映射到平面上的点集Uinetrnal和Uboundary需要满足方程5或方程6,其中Uinetrnal和Uboundary为人脸二维化后的内部点集合和外部点集合。然而实际上,方程5和6很难同时满足,因此使用平衡参数α用来调节EA和EX在二维化结果中所占的比重是十分必要的。这就意味着我们可以根据实际的需要来调节角度信息损失和面积信息损失。如方程7所示:

>>M >>>>U>inetrnal>>>>>>>U>boundary>>>>>>= >>>0>>>>>>U>boundary>>>>>>=>0>M>=>α>>M>A>>+>>(>1>->α>)>>>M>X>>->->->>(>7>)>>>

方程7是建立在边界点固定的条件上,因此,将原来三维人脸的边界点,分布在半径为600的圆上,即为Uboundary,解线性方程即得到内部点的映射。

3、把三维人脸在平面上进行展开以后,通过二维图像处理方法,生成的极光谱图像;

对于任意方向上的同一个人脸,根据上述方法得到的圆形映射区域在旋转角度上存在不同。我们构造了极光谱图像来处理角度的旋转问题。极光谱图像通过极坐标下的二维Fourier变换,实现了角度旋转的无关性。这就意味着,无论一个三维人脸的初始方向如何,他的极光谱图像总是相同的。目前人脸识别,特别是基于表情的识别中,对于不同人脸之间的对齐始终是一个既耗时又耗力的任务。极光谱图像的方向无关性,勿需复杂的计算对齐,不但可以大大加快识别的速度,而且避免了由人脸对齐而产生的误差。极光谱图像的产生流程如下:

1)、极坐标变化

映射后的人脸坐标是建立在笛卡尔坐标系上的,但是由于三维人脸的初始化方向而导致的二维图像在旋转角度上的不同并不能在笛卡尔坐标上很直观的表示出来,因此我们首先把二维的图像转换到极坐标图像上,则新的图像可以表示为g(ρ,θ)。在极坐标下,绕圆心旋转Δσ后,旋转图像为g(ρ,θ+Δσ),即笛卡尔坐标下的旋转变换在极坐标下可以用简单的平移变换实现,由于在映射图像中只存在旋转的变化,因此转化到极坐标下就只存在θ方向上的位移。

在坐标变化的过程中,我们必须保证ρ和θ在采样上的一致性。即如图3所示:在距离圆心为r/2处,使的在弧度方向和半径方向的采样间距大致相同。假设极坐标的图像大小为(K,L),从而我们得到,>>>>2>π>>L>>×>>r>2>>=>>r>K>>,>>即L=πK≈3K。因此重采样并极坐标化后的图像长宽比为1∶3,并且同一个人的极坐标图像只存在平移变化。

2)、二维Fourier变换

最初三维人脸在极坐标图像上只有位移的不同,经过二维fourier变换后,位移不同的极坐标图像产生相同的极光谱图像,因此二维Fourier变换被用来生成极坐标图像的光谱,如方程8所示:

>>F>>(>k>,>l>)>>=>>1>MN>over>>Σ>>i>=>0>>>M>->1>over>over>>Σ>>j>=>0>>>N>->1>over>>f>>(>i>,>j>)>>>e>>->i>2>π>>(>>ki>M>>+>>lj>N>>)>>>>->->0><>k><>K>,>0><>l><>L>->->->>(>8>)>>>

其中f(i,j)为极坐标图像在点(I,j)所对应的值。经过二维fourier变换后,位移不同的极坐标图像产生相同的极光谱图像,而最初三维人脸在极坐标图像上只有位移的不同,因此极光谱图像与三维人脸最初始的方向无关。

4、利用FisherFaces算法来进行人脸极光谱图像识别。

FisherFaces算法建立在Fisher分类方法上的。分类器的本质就是通过线性或者非线性的变换,使的类间样本和类内样本离散度的比达到最大,即:

>>>W>opt>>=>arg>>max>W>>>>|>>W>T>>>S>B>>W>|>>>|>>W>T>>>S>W>>W>|>>>>

SB,SW分别表示为类内样本的离散度和类间样本的离散度:

>>>S>B>>=over>>Σ>>i>=>1>>cover>>>N>i>>>>>(>>μ>i>>->μ>)>>>>(>>μ>j>>->μ>)>>T>>>>

>>>S>w>>=over>>Σ>>i>=>1>>cover>>>Σ>>>x>k>>∈>>X>i>>>>>(>>x>k>>->>μ>i>>)>>>>(>>x>k>>->>μ>i>>)>>T>>>

其中,c为样本的类别数,N1为第i类样本的个数,μi为第i类样本的平均值,μ为样本的平均值,xk为单个样本的值,Xi为第i类样本的集合。这是分类器的基本思想。

而在Fisherfaces中,我们使用以下的公式来计算Wopt

>>>W>opt>>=sup>>W>fld>Tsup>sup>>W>pca>Tsup>>>

Wpca和Wfld的定义如下:

>>>W>fld>>=>arg>>max>W>>>>|>>W>T>sup>>W>pca>Tsup>>>S>B>>>W>pca>>W>|>>>|>>W>T>sup>>W>pca>Tsup>>>S>W>>>W>pca>>W>|>>>>

>>>W>pca>>=>arg>>max>W>>|>>W>T>>>S>T>>W>|>,>>>>>S>T>>=over>>Σ>>k>=>1>>Nover>>>(>>x>k>>->μ>>>>)>>>(>>x>k>>->μ>>)>>>>T>>>

ST为整个样本的离散度。

Wopt是线性空间的变换矩阵,样本经过Wopt的线性空间变化,使的样本投影到维度为c-1的线性空间内,并且同一类的样本尽可能的聚在一起,不同类的样本尽可能的分开,从而达到分类的目的。在极光谱图像上应用FisherFaces算法,具有很好的识别效果。

三、验证结果:

为了验证该算法对三维人脸识别的效果,我们在3D_RMA人脸库上对此算法进行验证。我们用到了的3D_RMA人脸库的s1m和s2m两个部分,每部分有30个人,每个人三个人脸。

我们以鼻尖为球心,以到大概嘴角的距离长度为半径,即截取使统一截取半径为600,得到被截取后的区域,包含了眼睛,鼻子和嘴巴等主要部分。

二维映射时,我们设定圆为边界,把三维人脸的边界点按照距离分布在圆周上,按照上述提到的最小信息损失的度量得到二维上的人脸映射,并使角度信息损失和面积信息损失之间的调节参数α为0.5。

由二维人脸经过极坐标变换和Fourier变换后,得到的极光谱图像为,由于极光谱图像对于原始人脸的方向无关性,我们将其作为FisherFaces算法的输入,进行最后一步的人脸识别。

四、性能说明:

一般通常使用EER和CMC表明其识别能力:EER的值越低,说明性能越好;CMC值越高,说明性能越好。为了更有效的利用数据,我们采用留一法的标准来计算EER的值。以下两个实验来证明此系统的优越性:

1)采用留一法对s1m和s2m来计算最终的EER值,采样参数K从10到50的变化下,其结果如下:

DatabaseK10 15 20 25 30 35 40 45 50 S1M(%)7.10 6.67 6.67 6.67 6.26 5.96 5.15 3.33 3.32 S2M(%)10.56 9.44 9.44 9.76 8.89 8.89 8.71 9.15 8.97

2)利用s2m库做训练样本,s1m库做测试样本,K的取值为50,其ROC曲线和CMC曲线如图4所示。

五、实验结论:

由实验结果可以看出:采用基于极光谱的Fisherfaces算法对图像做识别,在EER和CMC两个指标上,得到了比较理想的结果。整个系统流程充分利用了平面参数化,极坐标和二维Fourier的属性从而得到勿需对齐的极光谱图像。从而避免了三维人脸对齐或者二维平面对齐时所需的大量的计算时间。在3D_RMA库的每张人脸只有3000个节,每个人脸并不是很精确的情况下,EER的值达到了3.32%,这在目前的三维人脸识别的方法中是比较高的。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号