首页> 中国专利> 一种掌纹图像细节点特征匹配的方法

一种掌纹图像细节点特征匹配的方法

摘要

本发明公开了一种掌纹图像细节点特征匹配的方法,包括如下步骤:判断在以细节点为中心的设定区域内,细节点与设定区域内的细节点之间的方向一致性是否小于第一一致性阈值,若是则将细节点从掌纹图像中剔除;判断局部区域内细节点的方向一致性是否大于第二一致性阈值,若是则选择局部区域内的满足方向一致性的细节点;在掌纹模板中,利用迭代最近点算法找到与待测细节点集中的每一个细节点最近的细节点;通过迭代最近点算法求取目标函数的最小值,从而计算得到变换矩阵和平移矩阵;根据变换矩阵和平移矩阵计算新细节点集;计算新细节点集与掌纹模板的相似度。本发明可以提高掌纹识别的速度和精度。

著录项

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2019-01-08

    授权

    授权

  • 2016-07-20

    实质审查的生效 IPC(主分类):G06K9/00 申请日:20160115

    实质审查的生效

  • 2016-06-22

    公开

    公开

说明书

【技术领域】

本发明涉及一种掌纹图像细节点特征匹配的方法。

【背景技术】

人体生物特征是我们人体所固有的各种生理特征或者行为特征的总 称,具有唯一性、终生不变性、且不会被遗忘和丢失、不易伪造或被盗、 随身“携带”以及随时随地可用等优点,比传统的身份认证方法更具安 全、保密和方便性。生理特征多为先天性的,不随外在条件和主观意愿 发生改变,如指纹、掌纹、虹膜、人脸等;行为特征则是人们长期生活 养成的行为习惯,很难改变,如笔迹、步态等。

掌纹识别技术是一种高效准确的个人身份识别技术,和指纹相比, 掌纹的有效区域大得多,具有更丰富的纹理信息,可以提取到更多更可 靠的特征信息,因此能提供更为有效可靠的识别。高分辨率掌纹图像(分 辨率500ppi以上)成像清晰,能够提取到有效的细节点。同时,细节点 作为高分辨率掌纹图像的一种可靠信息,在现场犯罪可恢复的痕迹中提 取的潜掌纹中,也取得了很好的效果。

然而,由于掌纹图像中细节点数量较多,且由手掌褶皱较大导致提 取的细节点误差较大,同时采集的原始图像可能不全或者旋转偏移较大, 手掌的挤压也会导致掌纹图像的畸变,如何通过细节点快速有效地进行 身份认证是一个具有挑战性的问题。

迭代最近点(IterativeClosestPoint,ICP)算法是三维点集配准 中的关键步骤,在表面重建、三维物体识别中有着举足轻重的地位,在 掌纹图像提取主线特征中也得到了广泛的应用。

【发明内容】

为了解决现有掌纹图像采用迭代最近点算法速度较慢、误差较大的不 足,本发明提出了一种掌纹图像细节点特征匹配的方法,识别速度更快, 精度更高。

一种掌纹图像细节点特征匹配的方法,包括如下步骤:

S1、针对掌纹图像中的任一细节点,判断在以任一细节点为中心的设 定区域内,任一细节点与设定区域内的细节点之间的方向一致性是否小于 第一一致性阈值,若是则将任一细节点从掌纹图像中剔除,得到初始细节 点集;

S2、在所述初始细节点集中,判断任一局部区域内细节点的方向一致 性是否大于第二一致性阈值,若是则选择所述任一局部区域内的满足方向 一致性的细节点,得到待测细节点集Q;

S3、在掌纹模板T中,利用迭代最近点算法找到至待测细节点集中的 每一个细节点最近的细节点;

S4、通过迭代最近点算法求取目标函数f的最小值,从而计算得到变 换矩阵r和平移矩阵t,其中,

f=Σi=1nαi||(Qi*r+t)-Ti||2,

Qi表示待测细节点集Q中第i个细节点,Ti表示掌纹模板T中与Qi对 应的细节点,αi表示细节点Qi的权重系数,n表示待测细节点集Q中细节 点的个数;

S5、根据变换矩阵r和平移矩阵t计算新细节点集Q′:

Q′=Q*r+t

S6、计算新细节点集Q′与掌纹模板T的相似度。

在一个实施例中,

在步骤S1中,通过如下方法判断任一细节点与设定区域内的细节点之 间的方向一致性是否小于第一一致性阈值:

计算任一细节点的方向与设定区域内的细节点的方向之间的角度差;

计算小于设定角度差的角度差个数占所有角度差个数的比例是否小于 设定比例,若是则判断任一细节点与设定区域内的细节点之间的方向一致 性小于第一一致性阈值。

在一个实施例中,

在步骤S1中,通过如下方法判断任一细节点与设定区域内的细节点之 间的方向一致性是否小于第一一致性阈值:

计算所述设定区域内所有细节点的标准方差σ:

σ=1NΣiiN(θi-θ)2,θ=1NΣiiNθi,

若标准方差σ大于标准方差阈值,则判断任一细节点与设定区域内的 细节点之间的方向一致性小于第一一致性阈值;其中,θi表示设定区域 内第i个细节点的角度。

在一个实施例中,

在步骤S2与S3之间,还包括如下步骤:

将待测细节点集Q中的细节点分成不同类型;

在步骤S3中,针对待测细节点集Q中的细节点,在所述掌纹模板T 中的相同类型的细节点中寻找最近的细节点。

在一个实施例中,

细节点的类型包括:分叉细节点和端细节点。

在一个实施例中,

在步骤S3中,以综合距离dθ′ij衡量细节点之间距离的远近:

计算细节点(xi,yi)与细节点(xj,yj)之间的欧氏距离dij

dij=(xi-xj)2+(yi-yj)2;

计算细节点(xi,yi)与细节点(xj,yj)之间的角度距离dθij

ij=min(|θij|,360-|θij|),

其中,θi和θj分别表示细节点(xi,yi)与细节点(xj,yj)的角度;

计算细节点(xi,yi)与细节点(xj,yj)之间的综合距离dfusion

dfusion=dθ′ij+d′ij

其中,dij=dij-dmindmax-dmin,ij=ij-minmax-min

其中dmin和dθmin分别指细节点之间的最小欧式距离和最小角度距离, dmax和dθmax分别指细节点之间的最大欧式距离和最大角度距离。

在一个实施例中,

在步骤S2与S3之间,还包括如下步骤:

将掌纹图像分割成若干个区域;

在步骤S3中,

针对某个区域的待测细节点集Q中的细节点,所述掌纹模板T中的相 同区域的细节点中寻找最近的细节点。

在一个实施例中,

通过如下步骤将掌纹图像分割成若干个区域:

连接掌纹的第一肌线和第二肌线的尾端得到连线,根据所述连线的中 垂线,以所述连线和中垂线将掌纹划分为多个区域。

本发明的有益效果是:

通过判断细节点的可靠性和类型,提高了匹配时的目的性,大量减 少了待匹配的细节点数量,在保证甚至提高精确度的前提下,极大地提 高了速度。

【具体实施方式】

以下对发明的较佳实施例作进一步详细说明。

一种实施例的掌纹图像细节点特征匹配的方法,包括如下步骤:

S1、针对掌纹图像中的任一细节点m,判断在以任一细节点m为中心 的设定区域P内,任一细节点m与设定区域P内的细节点之间的方向一致 性是否小于第一一致性阈值,若是则说明细节点m与周围的细节点的方向 不相似,因此将任一细节点m从掌纹图像中剔除,得到初始细节点集。在 此步骤中,判断每一个细节点m的可靠性,若某个细节点不可靠则从掌纹 图像中剔除。

掌纹图像中的细节点的方向是指细节点所在的掌纹的方向。

在一个实施例中,所述设定区域P的直径为80像素。

在一个实施例中,可以通过如下方法判断任一细节点与设定区域内的 细节点之间的方向一致性是否小于第一一致性阈值:

计算任一细节点的方向与设定区域内的细节点的方向之间的角度差;

计算小于设定角度差的角度差个数占所有角度差个数的比例是否小于 设定比例,若是则判断任一细节点与设定区域内的细节点之间的方向一致 性小于第一一致性阈值。

在一个实施例中,可以将角度差离散化,即将所有的角度差划分为多 个角度差范围,例如划分为,然后再进行比例的计算。

在一个实施例中,还可以通过如下方法判断任一细节点与设定区域内 的细节点之间的方向一致性是否小于第一一致性阈值:

分别计算任一细节点的方向与设定区域内的细节点的方向之间的角度 差;

若角度差小于角度差阈值,则判断两个细节点是一组相似的细节点, 若相似的细节点组的个数占设定区域内细节点个数的百分比达到百分比阈 值,则判断该任一细节点与设定区域内的细节点之间的方向一致性大于第 一一致性阈值。例如该百分比阈值可以设定为50%。

在一个实施例中,还可以通过如下方法判断任一细节点与设定区域内 的细节点之间的方向一致性是否小于第一一致性阈值:

计算所述设定区域内所有细节点的标准方差σ:

σ=1NΣiiN(θi-θ)2,θ=1NΣiiNθi,

若标准方差σ大于标准方差阈值,则判断任一细节点与设定区域内的 细节点之间的方向一致性小于第一一致性阈值;其中,θi表示设定区域 内第i个细节点的角度,即判定该细节点是可靠的。

S2、在所述初始细节点集中,判断任一局部区域内细节点的方向一致 性是否大于第二一致性阈值,若是则选择所述任一局部区域内的满足方向 一致性的细节点,得到待测细节点集Q。在这个步骤中,进一步选取局部 一致性好的细节点作为最终的待测细节点。

S3、将掌纹图像分割成若干个区域。在一个实施例中,连接掌纹的第 一肌线和第二肌线的尾端得到连线,根据所述连线的中垂线,以所述连线 和中垂线将掌纹划分为多个区域,分割区域的边界线呈T型。

S4、将待测细节点集Q中的细节点分成不同类型。细节点的类型包括: 分叉细节点和端细节点。端细节点指某条掌纹的端点,而分叉细节点指两 条掌纹的交叉点。

S5、在掌纹模板T中,利用迭代最近点算法找到至待测细节点集中的 每一个细节点最近的细节点。

在一个实施例中,针对待测细节点集Q中的细节点,在所述掌纹模板 T中的相同类型的细节点中寻找最近的细节点,从而可以实现更精确的匹 配。

在一个实施例中,针对某个区域的待测细节点集Q中的细节点,所述 掌纹模板T中的相同区域的细节点中寻找最近的细节点,从而可以实现更 精确的匹配。

在一个实施例中,以综合距离dθ′ij衡量细节点之间距离的远近:

计算细节点(xi,yi)与细节点(xj,yj)之间的欧氏距离dij

dij=(xi-xj)2+(yi-yj)2;

计算细节点(xi,yi)与细节点(xj,yj)之间的角度距离dθij

ij=min(|θij|,360-|θij|),

其中,θi和θj分别表示细节点(xi,yi)与细节点(xj,yj)的角度;

计算细节点(xi,yi)与细节点(xj,yj)之间的综合距离dfusion

dfusion=dθ′ij+d′ij

其中,dij=dij-dmindmax-dmin,ij=ij-minmax-min

其中dmin和dθmin分别指细节点之间(例如待测细节点集Q中任一个 细节点与掌纹模板T中任一个细节点之间的距离)的最小欧式距离和最 小角度距离,dmax和dθmax分别指细节点之间的最大欧式距离和最大角度 距离。

S4、通过迭代最近点算法求取目标函数f的最小值,从而计算得到变 换矩阵r和平移矩阵t,其中,

f=Σi=1nαi||(Qi*r+t)-Ti||2,

Qi表示待测细节点集Q中第i个细节点,Ti表示掌纹模板T中与Qi对 应的细节点,αi表示细节点Qi的权重系数,n表示待测细节点集Q中细节 点的个数。在此步骤中,可以对待测细节点集Q中的细节点的X坐标、Y 坐标、角度进行归一化,作为一组三维信息。

S5、根据变换矩阵r和平移矩阵t计算新细节点集Q′:

Q′=Q*r+t

S6、计算新细节点集Q′与掌纹模板T的相似度。

在一个实施例中,计算新细节点集Q′中的每个细节点与掌纹模板T的 细节点最近的细节点的距离,若距离小于距离阈值,则说明新细节点集Q′中 该细节点与掌纹模板T的对应的细节点是一组相同的细节点,统计所有相 同的细节点组的个数,然后计算细节点组的个数占掌纹模板T的细节点个 数的百分比,如果百分比大于相似度阈值,则判断新细节点集Q′与掌纹模 板T相似,否则判断两者不相似,从而完成了掌纹图像的识别。

以上内容是结合具体的优选实施方式对本发明所作的进一步详细说 明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术 领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若 干简单推演或替换,都应当视为属于本发明由所提交的权利要求书确定的 专利保护范围。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号