首页> 中国专利> 一种可兼容不同版本模型的特征对比识别方法

一种可兼容不同版本模型的特征对比识别方法

摘要

本发明涉及一种可兼容不同版本模型的特征对比识别方法,其特征在于,包括以下步骤:获取待处理版本模型并提取其特征;将其特征输入变换网络进行变换处理输出之后与底库版本模型的特征进行识别处理;其中,变换网络的形成方法如下:设计一个浅层神经网络,准备若干对训练样本,其中,每一个训练样本包括待处理版本模型的特征与其对应的底库版本模型特征,待处理版本模型的特征为浅层神经网络输入,底库版本模型特征作为浅层神经网络输出的监督以计算损失,损失函数采用smoothL1Loss,得到训练模型,若训练模型收敛则形成变换网络。本发明所提出方法可以在不更新底库版本模型特征的前提下,使新版本模型抽出的特征可以与底库版本模型特征进行比对。

著录项

  • 公开/公告号CN112801014A

    专利类型发明专利

  • 公开/公告日2021-05-14

    原文格式PDF

  • 申请/专利权人 深圳市华付信息技术有限公司;

    申请/专利号CN202110170962.1

  • 发明设计人 文戈;陈兴委;刘磊;周先得;

    申请日2021-02-08

  • 分类号G06K9/00(20060101);G06K9/62(20060101);G06N3/04(20060101);G06N3/08(20060101);

  • 代理机构44637 深圳市中兴达专利代理有限公司;

  • 代理人黄美玲

  • 地址 518000 广东省深圳市前海深港合作区前湾一路1号A栋201室(入驻深圳市前海商务秘书有限公司)

  • 入库时间 2023-06-19 10:58:46

说明书

技术领域

本发明涉及机器学习和模式识别领域,尤其涉及一种可兼容不同版本模型的特征对比识别方法。

背景技术

深度学习模型的一个主要应用是用来抽取输入对象的特征,以人脸识别为例,深度学习模型首先会抽取底库图像的特征进行存储,待识别人脸图像则会经由同一个模型进行特征提取,然后将该特征(query)与底库特征(gallery)逐个进行比对(求特征相似度),检索出一个最相似的特征再进行后续处理。

当模型进行更新换代时,不仅待识别对象需要用新模型进行特征提取,所有的底库特征都需要重新用新模型进行特征提取更新,当底库数据量极大时,每次迭代的成本会非常高。如果不进行底库特征更新,直接用旧底库特征与新模型抽取的待识别对象特征进行比较,求得的同一类样本的特征相似度也会非常低。

发明内容

为了克服以上的技术问题,本是发明提出一种可兼容不同版本模型的特征对比识别方法,包括以下步骤:

获取待处理版本模型并提取其特征;

将其特征输入变换网络进行变换处理输出之后与底库版本模型的特征进行识别处理;

其中,变换网络的形成方法如下:

设计一个浅层神经网络,准备若干对训练样本,其中,每一个训练样本包括待处理版本模型的特征与其对应的底库版本模型特征,待处理版本模型的特征为浅层神经网络输入,底库版本模型特征作为浅层神经网络输出的监督以计算损失,损失函数采用smoothL1Loss,得到训练模型,若训练模型收敛则形成变换网络。

有益效果:

本发明所提出方法可以在不更新底库版本模型特征的前提下,使新版本模型抽出的特征可以与底库版本模型特征进行比对,具有以下特点:

操作简单:本发明只需训练一个小型网络即可兼容两个不同版本模型的特征,实现成本低。

耗时少、速度快:本发明在原流程添加的方法只有让需要兼容的特征再经过变换网络进行处理,由于变换网络本身是轻量型的,耗时并不多。

准确度损失不大:本发明在变换网络训练得当的情况下,效果与更新底库再进行比较的准确率相差不大。

附图说明

图1为本发明特征对比识别方法的步骤示意图;

图2为三层512X512X512的全连接网络;

图3为参考resnet[2]中的bottleneck结构设计的512X16X16X512的全连接网络示意图。

图4为训练浅层神经网络示意图。

具体实施方式

以下结合实施例对本发明作进一步的阐述,所述的实施例仅为本发明一部分的实施例,这些实施例仅用于解释本发明,对本发明的范围并不构成任何限制。

见图1,本发明提供一种可兼容不同版本模型的特征对比识别方法,包括以下步骤:

S1:获取待处理版本模型并提取其特征;

S2:将其特征输入变换网络进行变换处理输出之后与底库版本模型的特征进行识别处理;

其中,变换网络的形成方法如下:

设计一个浅层神经网络,准备若干对训练样本,其中,每一个训练样本包括待处理版本模型的特征与其对应的底库版本模型特征,待处理版本模型的特征为浅层神经网络输入,底库版本模型特征作为浅层神经网络输出的监督以计算损失,损失函数采用smoothL1Loss,得到训练模型,若训练模型收敛则形成变换网络。

在设计浅层神经网络时,形式可以多样化,但要满足两个要求,一是网络输入维度和输出维度都与待处理的特征维度相同,二是网络不能太复杂,以免明显增加计算量,下面列出两个浅层神经网络例子:

图2为三层512X512X512的全连接网络示意图,每层全连接的输出需要通过relu激活函数和批归一化处理。

图3为参考resnet[2]中的bottleneck结构设计的512X16X16X512的全连接网络示意图。

在训练浅层神经网络时,对训练完成的浅层神经网络,要达到一个版本模型特征输入后能正确契合另一个版本模型的特征。

见图4,这里以v1和v2版本模型为例,如果希望v2模型抽取的特征向v1兼容,可先准备原始训练数据若干,分别输入v1和v2模型得到成对的特征,对于每一个训练样本,使用v2抽取的特征作为变换网络输入,v1抽取的特征作为变换网络输出的监督以计算损失,损失函数采用smoothL1Loss。最终若模型收敛则训练成功。这样训练好的变换网络能够将v2版本模型抽取的特征映射到v1版本模型所抽取特征的分布上,同时能一定程度的保留v2版本模型所抽取特征的性能。

本发明所提出方法可以在不更新底库版本模型特征的前提下,使新版本模型抽出的特征可以与底库版本模型特征进行比对,具有以下特点:

操作简单:本发明只需训练一个小型网络即可兼容两个不同版本模型的特征,实现成本低。

耗时少、速度快:本发明在原流程添加的方法只有让需要兼容的特征再经过变换网络进行处理,由于变换网络本身是轻量型的,耗时并不多。

准确度损失不大:本发明在变换网络训练得当的情况下,效果与更新底库再进行比较的准确率相差不大。

以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容作出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号