首页> 中国专利> 基于特征多样性学习的深度集成模型训练方法

基于特征多样性学习的深度集成模型训练方法

摘要

本发明实施例涉及机器学习技术领域,公开了一种基于特征多样性学习的深度集成模型训练方法,该方法包括:获取样本数据(110);将样本数据输入当前集成模型,得到每个基模型的高层特征向量(120);根据高层特征向量中各个神经元的激活值,确定激活强度区间(130);根据各个子区间内激活值的统计特征确定各个基模型在各个子区间中的神经元的保留概率,根据保留概率调整各个所述神经元的激活值,得到当前集成模型更新的高层特征多样性表示;其中,M大于等于K(140);根据当前集成模型更新的高层特征多样性表示,输出样本数据对应的输出结果(150);根据样本数据及输出结果计算当前集成模型的目标损失函数,调整当前集成模型的参数值,将样本数据输入调整后的当前集成模型继续训练,直至目标损失函数收敛,得到目标深度集成模型(160)。通过上述方式,本发明实施例实现了提高深度学习集成模型的鲁棒性的有益效果。

著录项

  • 公开/公告号CN113228062A

    专利类型发明专利

  • 公开/公告日2021-08-06

    原文格式PDF

  • 申请/专利权人 东莞理工学院;

    申请/专利号CN202180000322.4

  • 发明设计人 王艺;黄波;柯志伟;

    申请日2021-02-25

  • 分类号G06N3/08(20060101);G06N3/04(20060101);

  • 代理机构11276 北京市浩天知识产权代理事务所(普通合伙);

  • 代理人王广涛

  • 地址 523808 广东省东莞市松山湖管委会大学路1号

  • 入库时间 2023-06-19 12:07:15

说明书

技术领域

本发明实施例涉及机器学习技术领域,具体涉及一种基于特征多样性学习的深度集成模型训练方法、图像识别方法、基于特征多样性学习的深度集成模型训练装置、图像识别装置、电子设备及计算机可读存储介质。

背景技术

目前,深度学习作为一种重要的数据分析方法已被广泛应用于生物特征识别、汽车自动驾驶等多个应用领域中。但最近的研究表明,深度学习模型很容易遭受到对抗样本的攻击。这里对抗样本指的是对原始样本加入微小的、人类察觉不到的扰动,以改变分类模型对该样本的预测标签。比如,针对面部识别模型的特点,通过对原始面部图片添加人为精心制造的微小扰动便可使面部识别模型做出错误的分类。还有针对自动汽车驾驶、语音控制系统的恶意控制等,攻击者对原始样本添加微小的扰动,生成对抗样本,使得对抗样本被智能系统错误识别,从而对其造成恶意破坏。对抗样本的存在给深度学习落地于真实应用系统带来了巨大的安全隐患,因此,提高深度学习模型本身对恶意对抗样本的防御能力(即模型鲁棒性)是一个重要的研究方向。

然而以往的方法主要针对于提高单个深度分类模型的鲁棒性,如采用对抗训练,即在模型每一轮训练过程中,生成特定的对抗样本,将这些对抗样本加入到原始样本中共同训练,从而提高模型鲁棒性。这种方法虽然能够提升深度模型的鲁棒性,但也会在一定程度上降低模型对于正常样本的泛化能力;并且该方法十分耗费计算机系统资源,在复杂数据集上难以应用。

发明内容

鉴于上述问题,本发明实施例提供了一种基于特征多样性学习的集成深度神经网络模型训练方法,用于解决现有技术中存在的集成模型的鲁棒性差的技术问题。

根据本发明实施例的一个方面,提供了一种基于特征多样性学习的深度集成模型训练方法,所述方法包括:

获取样本数据;

将样本数据输入当前集成模型,得到每个基模型的高层特征向量;其中,所述当前集成模型包括K个所述基模型,K大于1;

根据所述K个基模型的高层特征向量中各个神经元的激活值,确定所述当前集成模型的激活强度区间;

将所述激活强度区间划分为M个子区间,根据各个子区间内神经元的激活值的统计特征确定各个基模型在各个子区间中的神经元的保留概率,根据所述保留概率调整各个所述神经元的激活值,得到所述当前集成模型更新的高层特征多样性表示;其中,M大于等于K;

根据得到当前集成模型的高层特征多样性表示,输出所述样本数据对应的输出结果;

根据所述样本数据及所述输出结果计算所述当前集成模型的目标损失函数,调整所述初始集成模型的参数值,将所述样本数据输入调整后的当前集成模型继续训练,直至所述目标损失函数收敛,得到目标深度集成模型。

在一种可选的方式中,所述各个子区间内神经元的激活值的统计特征为所述各个子区间内神经元的个数;所述根据各个子区间内神经元的激活值的统计特征确定各个基模型在各个子区间中的神经元的保留概率,根据所述保留概率调整各个所述神经元的激活值,得到所述当前集成模型更新后的高层特征多样性表示,包括:确定神经元个数最多的前K个子区间为优先级区间;根据目标神经元的激活值是否位于目标优先级区间确定所述目标神经元的保留概率;根据所述保留概率调整所述目标神经元的激活值;根据调整后的目标神经元的激活值,得到当前集成模型更新的高层特征多样性表示;所述目标神经元为目标基模型中的所述神经元;所述目标基模型为任意一个所述基模型,所述目标优先级区间为所述目标基模型对应的优先级区间。

在一种可选的方式中,所述根据目标神经元的激活值是否位于目标优先级区间调整所述目标神经元的保留概率,包括:通过保留概率调整公式调整所述目标神经元的保留概率;

所述保留概率调整公式为:

其中,

在一种可选的方式中,所述根据所述样本数据及所述输出结果计算所述当前集成模型的目标损失函数,调整所述当前集成模型的参数值,将所述样本数据输入调整后的当前集成模型继续训练,直至所述目标损失函数收敛,得到目标深度集成模型,包括:

根据所述样本数据及所述输出结果通过预设损失函数分别计算各个所述基模型的分类损失;

根据各个所述基模型的分类损失关于样本数据的梯度,通过梯度正则项损失公式计算梯度正则项损失;

所述梯度正则项损失公式为:

其中,

根据所述分类损失及所述梯度正则项损失确定所述目标损失函数;

根据所述目标损失函数调整所述当前集成模型的参数值,将所述样本数据输入调整后的当前集成模型继续训练,直至所述目标损失函数收敛,得到目标深度集成模型。

在一种可选的方式中,所述根据所述样本数据及所述输出结果计算所述当前集成模型的目标损失函数,调整所述当前集成模型的参数值,将所述样本数据输入调整后的当前集成模型继续训练,直至所述目标损失函数收敛,得到目标深度集成模型之后,所述方法进一步包括:

确定所述目标深度集成模型中各个基模型高层特征层的激活向量;

计算所有所述基模型高层特征层的激活向量的均值和方差,并通过辨别分数公式计算总辨别分数;

所述辨别分数公式为:

其中,

根据本发明实施例的另一方面,提供了一种图像识别方法,所述方法包括以下步骤:

获取待识别图像;

将所述待识别图像输入目标深度集成模型中;所述目标深度集成模型包括K个基模型,所述目标深度集成模型通过上述的基于特征多样性学习的深度集成模型训练方法训练得到;

输出所述待识别图像的识别结果。

根据本发明实施例的另一方面,提供了一种基于特征多样性的集成模型训练装置,包括:

第一获取模块,用于获取样本数据;

第一输入模块,用于将样本数据输入当前集成模型,得到每个基模型的高层特征向量;其中,所述当前集成模型包括K个所述基模型,K大于1;

确定模块,用于根据所述K个基模型的高层特征向量中各个神经元的激活值,确定所述当前集成模型的激活强度区间;

调整模块,用于根据各个子区间内神经元的激活值的统计特征确定各个基模型在各个子区间中的神经元的保留概率,根据所述保留概率调整各个所述神经元的激活值,得到所述当前集成模型更新的高层特征多样性表示;其中,M大于等于K;

第一输出模块,用于根据所述当前集成模型更新的高层特征多样性表示,输出所述样本数据对应的输出结果;

损失函数计算模块,用于根据所述样本数据及所述输出结果计算所述当前集成模型的目标损失函数,调整所述当前集成模型的参数值,将所述样本数据输入调整后的当前集成模型继续训练,直至所述目标损失函数收敛,得到目标深度集成模型。

根据本发明实施例的另一方面,提供了一种图像识别装置,包括:

第二获取模块,用于获取待识别图像;

第二输入模块,用于将所述待识别图像输入目标深度集成模型中;所述目标深度集成模型包括K个基模型,所述目标深度集成模型通过所述的基于特征多样性学习的深度集成模型训练方法或所述的基于特征多样性的集成模型训练装置训练得到;

第二输出模块,用于输出所述待识别图像的识别结果。

根据本发明实施例的另一方面,提供了一种电子设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行上述的基于特征多样性学习的深度集成模型训练方法或上述的图像识别方法的操作。

根据本发明实施例的又一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一可执行指令,所述可执行指令在电子设备上运行时,使得电子设备执行上述的基于特征多样性学习的深度集成模型训练方法或上述的图像识别方法的操作。

本发明实施例在集成模型的训练过程中,通过调整各个基模型的高层特征层中各个神经元的保留概率,从而调整对应的激活值,从而使得各个基模型的特征多样化,以提高集成模型的鲁棒性。

进一步地,通过结合损失梯度的差异化处理,使得能够在保证对正常样本的泛化能力的同时,显著提高集成模型的鲁棒性,能够有效处理复杂数据集及防御对抗样本攻击。

上述说明仅是本发明实施例技术方案的概述,为了能够更清楚了解本发明实施例的技术手段,而可依照说明书的内容予以实施,并且为了让本发明实施例的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。

附图说明

附图仅用于示出实施方式,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:

图1示出了标准神经网络和带Dropout的神经网络的示意图;

图2示出了本发明实施例提供的基于特征多样性学习的深度集成模型训练方法的流程示意图;

图3示出了本发明实施例提供的采用不同的训练方法对应的辨别率对比示意图;

图4示出了本发明另一实施例提供的图像识别方法的流程示意图;

图5示出了本发明实施例提供的基于特征多样性的集成模型训练装置的结构示意图;

图6示出了本发明另一实施例提供的图像识别装置的结构示意图;

图7示出了本发明实施例提供的电子设备的结构示意图。

具体实施方式

下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。

首先,对本发明实施例中的技术术语进行解释:

ADP(Adaptive Diversity Promoting):自适应多样性促进,一种针对深度集成模型的输出多样性学习方法。

Dropout:神经元失活算法,一种训练深度神经网络时普遍会用到的方法,可以有效防止过拟合。如图1所示,图1中(a)示出了现有未采用Dropout的神经网络结构,图1中的(b)示出了采用Dropout的神经网络结构。

PDD(Priority Diversified Dropouts):基于优先级差异化的神经元失活算法。本发明实施例中,在深度集成模型中对各基模型采取同时训练策略。在每一批次训练迭代中,根据总体激活神经元的个数,来分配各基模型优先保留的激活值区间,从而差异化各基模型中神经元的激活强度。

DEG:Dispersed Ensemble Gradients的缩写,弥散集成梯度。本发明实施例中促进深度集成模型中各基模型的损失梯度夹角尽可能最大化的一种惩罚项。

Discrimination Score:辨别分数,在测试阶段衡量深度集成模型的某一特定层的多样化程度。

图2示出了本发明基于特征多样性学习的深度集成模型训练方法实施例的流程图,该方法由电子设备执行。该电子设备具体可以是计算机设备或其他终端设备,如计算机、平板电脑、手机、智能机器人或穿戴式智能设备等。如图2所示,该方法包括以下步骤:

步骤110:获取样本数据。

其中,样本数据为预先标注好的样本标签的样本数据。该标签为样本数据对应的输出结果。如对于用于分类的集成模型,该标签为样本数据对应的分类结果。所述样本数据可以是带标签的图像数据,标签为图像分类结果。该样本数据可以是图像数据、文本数据、音频数据或视频数据等多媒体数据。

步骤120:将样本数据输入当前集成模型,得到每个基模型的高层特征向量;其中,所述当前集成模型包括K个所述基模型,K大于1。

其中,当前集成模型为由多个基模型组成的深度集成模型,可通过如下函数表示:

其中,

本发明实施例中,在每一轮训练中,将样本数据中的所有训练数据的顺序打乱,并连同训练数据对应的标签输入当前集成模型中。通过前向传播得到每个基模型的高层特征向量以及输出结果。该高层特征向量一般为神经网络的全连接层,该输出结果为预测向量。

步骤130:根据所述K个基模型的高层特征向量中各个神经元的激活值,确定所述当前集成模型的激活强度区间。

本发明实施例中,获取各个基模型的高层特征向量中的神经元的激活值;对各个神经元的激活值进行统计,按照激活值的大小从小到大排序,从而确定当前集成模型的激活强度区间[u,v],其中,u为最小的激活值,v为最大的激活值。各个神经元的激活值表示各个神经元在输入一次训练数据后被激活的概率,本发明实施例中,由于激活深度网络特征提取层的响应不同,使得各个神经元的激活值存在差异性。因此,各个被激活的神经元的激活值从小到大排列,得到激活强度区间。其中,激活强度通过激活值来衡量。

步骤140:将所述激活强度区间划分为M个子区间,根据各个子区间内所述神经元的激活值的统计特征确定各个基模型在各个子区间中的神经元的保留概率,根据所述保留概率调整各个所述神经元的激活值,得到所述当前集成模型更新的高层特征多样性表示;其中,M大于等于K。本发明实施例中,将激活强度区间均匀划分为M个子区间,每个子区间的区间长度相同。例如对于具有3个基模型的集成模型,激活强度区间为0.1-0.9的区间,可将其划分为4个子区间,则每个子区间的范围分别为0.1-0.3,0.3-0.5,0.5-0.7,0.7-0.9。

其中,各个子区间内所述神经元的激活值的统计特征可以是子区间内神经元的个数;还可以是子区间内所有激活值的期望;也可以是子区间内激活值的总辨别分数。本发明实施例中并不具体限定,本领域的技术人员可根据具体场景进行相应地设置。

在本发明的一个实施例中,所述各个子区间内神经元的激活值的统计特征为所述各个子区间内神经元的个数。则所述根据各个子区间内神经元的激活值的统计特征确定各个基模型在各个子区间中的神经元的保留概率,根据所述保留概率调整各个所述神经元的激活值,得到所述当前集成模型更新后的高层特征多样性表示,包括以下步骤:

步骤1401:确定所述神经元个数最多的前K个子区间为优先级区间。本发明实施例中,对激活强度区间进行均匀划分后,根据各个子区间内神经元的个数(也即激活值的个数),对子区间进行排序,从而筛选出神经元的个数最大的前k个子区间。由于每个子区间的长度范围相同,因此仅仅需要考虑每个区间内神经元的个数即可。具体地,在得到M个子区间后,对该M个子区间按照各个区间内神经元激活值的个数进行排序,从而得到神经元的激活值个数最多的前K个子区间为优先级区间。

其中,本发明实施例将K个基模型按照预设的分配规则分别对应分配给K个优先级区间。该分配规则可以是人为预先设定的,按照分配规则中的分配顺序,将每一个目标基模型对应分配至一个目标优先级区间;如,总是将第一个基模型分配给优先级最高(也即神经元个数最多)的优先级区间,将第二个基模型分配给优先级次之的优先级区间,以此类推将对应的基模型分配至对应的优先级区间,在后续的训练过程中一直采用该分配规则进行分配。所述目标神经元为目标基模型中的所述神经元;所述目标基模型为任意一个所述基模型。

步骤1402:根据目标神经元的激活值是否位于目标优先级区间确定所述目标神经元的保留概率。

其中,对于每个基模型而言,根据目标神经元的激活值是否位于目标优先级区间确定所述目标神经元的保留概率,在目标神经元的激活值位于目标优先级区间时,调整其具有较高的保留概率;在目标神经元的激活值不位于目标优先级区间时,调整其具有较低的保留概率。其中,所述目标神经元为目标基模型中的所述神经元;所述目标基模型为任意一个所述基模型,所述目标优先级区间为所述目标基模型对应的优先级区间。本发明实施例中,通过保留概率调整公式调整所述目标神经元的保留概率。其中,预设目标神经元保留概率公式为:

其中,

也即,当第k个目标基模型的目标神经元位于其对应的第t

步骤1403:根据所述保留概率调整各个所述目标神经元的激活值。

其中,在确定了各个目标神经元的保留概率后,根据0-1离散型随机变量分布律对每一个目标神经元进行采样,随机决定各个目标神经元的激活随机变量的单个样本值。其中,单个样本值为1时,保留该神经元的原激活值;单个样本值为0时,置零该神经元的激活值。

在本发明的一个实例中,所述0-1分布律为贝努利分布,记为Bernoulli(p),其采样公式为:

P{X=x}=p

即,给定第k个基模型全连接层的第j个神经元的保留概率

步骤1404:根据调整后的目标神经元的激活值,得到当前集成模型更新的高层特征多样性表示。

此时,当前集成模型的高层特征多样性表示发生了变化,但其并未进行训练,因此该当前集成模型的参数值并未调整。通过这样的方式,使得各个基模型的激活值分布在不同的区间上,各个神经元的激活值差异化增大,从而增加了输入特征的多样化。

步骤150:根据所述当前集成模型更新的高层特征多样性表示,输出所述样本数据对应的输出结果。

其中,将样本数据重新输入当前集成模型,从而得到样本数据对应的数据结果,该输出结果为多个预测向量。

步骤160:根据所述样本数据及所述输出结果计算所述当前集成模型的目标损失函数,调整所述当前集成模型的参数值,将所述调整后的当前集成模型作为当前集成模型,重新将样本数据输入调整后的当前集成模型继续训练,直至所述目标损失函数收敛,得到目标深度集成模型。

本发明的一个实施例中,当前集成模型的各个基模型为联合训练的,目标损失函数为各个基模型的损失函数之和。可以是现有的分类损失函数。因此,可以通过现有的分类损失的计算方法对当前集成模型进行损失计算,在目标损失函数过大时调整该当前集成模型的参数,并重新采用上述步骤110-步骤160的训练方法进行训练,直至所得到的损失函数收敛,从而得到目标深度集成模型。

本发明的另一个实施例中,还可以对损失函数进行改进,将梯度正则项损失的因子加入损失函数中,得到各个基模型联合的目标损失函数,对当前集成模型进行损失计算,在损失函数过大时调整该当前集成模型的参数,并重新采用上述步骤110-步骤160的训练方法进行训练,直至所得到的损失函数收敛,从而得到目标深度集成模型。具体地,包括以下步骤:

步骤1601:根据所述样本数据及所述输出结果通过预设损失函数分别计算各个所述基模型的分类损失并相加得到总分类损失。本发明实施例中,采用分类交叉熵的损失函数计算方法,分别计算各个基模型输出的预测向量与样本数据中样本对应的样本标签之间的分类损失。

步骤1602:根据样本数据中样本关于各个所述基模型的分类损失的梯度,通过梯度正则项损失公式计算梯度正则项损失;

所述正则项公式为:

其中,

本发明实施例中,通过正则项公式计算K个基模型中两两之间的梯度的夹角。

步骤1603:根据所述总分类损失及所述梯度正则项损失确定目标损失函数。

其中,目标损失函数为:

L

本发明实施例中,λ为惩罚项。

步骤1604:根据所述目标损失函数调整所述当前集成模型的参数值,将所述样本数据输入调整后的当前集成模型继续训练,直至所述目标损失函数收敛,得到目标深度集成模型。

其中,通过反向传播算法分别求解分类损失和DEG梯度正则项损失关于模型参数的梯度值,然后根据每一项损失对应的系数大小对梯度值进行加权叠加,用叠加后的梯度对模型参数进行更新,从而得到调整后的当前集成模型,完成一次的模型训练。在下一次训练时,将本次调整参数后的当前集成模型作为当前集成模型,将样本数据的数据打乱输入该集成模型中,按照上述同样的方式对调整后的当前集成模型进行训练,直至该模型近乎收敛,从而得到目标深度集成模型。

通过这样的方式,使得模型的训练结合了前期输入PDD算法对各个基模型的特征进行特征多样化处理,同时在计算损失函数时,结合梯度正则项损失,使得各个基模型之间的多样化特征进一步拉大,通过这样各个基模型联合训练的方法,从而使得训练得到的集成模型鲁棒性更高。

本发明实施例中,还包括步骤170:根据辨别分数确定目标深度集成模型中各个基模型的高层特征层的特征多样化程度。具体包括:

步骤1701:确定所述目标深度集成模型中各个基模型高层特征层的激活向量。

步骤1702:根据各个所述基模型高层特征层的激活向量的均值和方差,通过辨别分数公式计算总辨别分数;

所述辨别分数公式为:

其中,

通过上述方式,能够有效度量模型的高层特征层的特征多样化程度。

如图3所示,示出了采用现有的方式,单独采用本发明实施例的PDD方式、单独采用本发明实施例的DEG的方式以及采用本发明实施例PDD+DEG的方式,所得到的总辨别分数情况。从图中可以看出,本发明实施例采用PDD+DEG的方式可以明显增强特征之间的差异度。

本发明实施例在集成模型的训练过程中,通过调整各个基模型的高层特征层中各个神经元对应的激活值,从而使得各个基模型的特征多样化,以提高集成模型的鲁棒性。

进一步地,通过结合损失梯度的差异化处理,使得能够在保证对正常样本的泛化能力的同时,显著提高集成模型的鲁棒性,能够有效处理复杂数据集及防御对抗样本攻击。

图4示出了本发明图像识别方法另一个实施例的流程图,该方法由电子设备设备执行。该电子设备可以是计算机设备。如图4所示,该方法包括以下步骤:

步骤210:获取待识别图像。

步骤220:将所述待识别图像输入目标深度集成模型中;所述目标深度集成模型包括K个基模型,所述目标深度集成模型通过上述的基于特征多样性学习的深度集成模型训练方法训练得到。本发明实施例中基于特征多样性学习的深度集成模型训练方法与上述方法实施例中的具体训练步骤相同,此处不再赘述。

步骤230:输出所述待识别图像的识别结果。

本发明实施例在集成模型的训练过程中,通过调整各个基模型的高层特征层中各个神经元对应的激活值,从而使得各个基模型的特征多样化,以提高集成模型的鲁棒性。

进一步地,通过结合损失梯度的差异化处理,使得能够在保证对正常样本的泛化能力的同时,显著提高集成模型的鲁棒性,能够有效处理复杂数据集及防御对抗样本攻击。

本发明实施例的图像识别方法,能够有效克服对抗样本的问题,使得模型预测得到的图像识别结果更加准确。

图5示出了本发明基于特征多样性的集成模型训练装置实施例的结构示意图。如图5所示,该装置300包括:第一获取模块310、第一输入模块320、第一确定模块330、第二确定模块340、调整模块350、第一输出模块360和损失函数计算模块370。

第一获取模块310,用于获取样本数据;

第一输入模块320,用于将样本数据输入当前集成模型,得到每个基模型的高层特征向量;其中,所述当前集成模型包括K个所述基模型,K大于1;

确定模块330,用于根据所述K个基模型的高层特征向量中各个神经元的激活值,确定所述当前集成模型的激活强度区间;

调整模块340,用于根据各个子区间内神经元的激活值的统计特征确定各个基模型在各个子区间中的神经元的保留概率,根据所述保留概率调整各个所述神经元的激活值,得到所述当前集成模型更新的高层特征多样性表示;其中,M大于等于K;

第一输出模块350,用于根据所述当前集成模型更新的高层特征多样性表示,输出所述样本数据对应的输出结果;

损失函数计算模块360,用于根据所述样本数据及所述输出结果计算所述当前集成模型的目标损失函数,调整所述当前集成模型的参数值,将所述样本数据输入调整后的当前集成模型继续训练,直至所述目标损失函数收敛,得到目标深度集成模型。

本发明实施例的基于特征多样性的集成模型训练装置的具体工作过程与上述方法实施例的具体方法步骤一致,此处不再赘述。

本发明实施例在集成模型的训练过程中,通过调整各个基模型的高层特征层中各个神经元对应的激活值,从而使得各个基模型的特征多样化,以提高集成模型的鲁棒性。

进一步地,通过结合损失梯度的差异化处理,使得能够在保证对正常样本的泛化能力的同时,显著提高集成模型的鲁棒性,能够有效处理复杂数据集及防御对抗样本攻击。

图6示出了本发明图像识别装置实施例的结构示意图。如图6所示,该装置400包括:第二获取模块410、第二输入模420和第二输出模块430。

第二获取模块410,用于获取待识别图像。

第二输入模块420,用于将所述待识别图像输入目标深度集成模型中;所述目标深度集成模型包括K个基模型,所述目标深度集成模型通过上述的基于特征多样性学习的深度集成模型训练方法或上述的基于特征多样性的集成模型训练装置训练得到。

第二输出模块430,用于输出所述待识别图像的识别结果。

本发明实施例的图像识别装置的具体工作过程与上述方法实施例的具体方法步骤一致,此处不再赘述。

本发明实施例在集成模型的训练过程中,通过调整各个基模型的高层特征层中各个神经元对应的激活值,从而使得各个基模型的特征多样化,以提高集成模型的鲁棒性。

进一步地,通过结合损失梯度的差异化处理,使得能够在保证对正常样本的泛化能力的同时,显著提高集成模型的鲁棒性,能够有效处理复杂数据集及防御对抗样本攻击。

图7示出了本发明电子设备实施例的结构示意图,本发明具体实施例并不对电子设备的具体实现做限定。

如图7所示,该电子设备可以包括:处理器(processor)502、通信接口(CommunicationsInterface)504、存储器(memory)506、以及通信总线508。

其中:处理器502、通信接口504、以及存储器506通过通信总线508完成相互间的通信。通信接口504,用于与其它设备比如客户端或其它服务器等的网元通信。处理器502,用于执行程序510,具体可以执行上述用于基于特征多样性学习的深度集成模型训练方法或图像识别方法实施例中的相关步骤。

具体地,程序510可以包括程序代码,该程序代码包括计算机可执行指令。

处理器502可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。电子设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。

存储器506,用于存放程序510。存储器506可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatilememory),例如至少一个磁盘存储器。

程序510具体可以被处理器502调用使电子设备执行以下操作:

获取样本数据;

将样本数据输入当前集成模型,得到每个基模型的高层特征向量;其中,所述当前集成模型包括K个所述基模型,K大于1;

根据所述K个基模型的高层特征向量中各个神经元的激活值,确定所述当前集成模型的激活强度区间;

将所述激活强度区间划分为M个子区间,根据各个子区间内神经元的激活值的统计特征确定各个基模型在各个子区间中的神经元的保留概率,根据所述保留概率调整各个所述神经元的激活值,得到所述当前集成模型更新的高层特征多样性表示;其中,M大于等于K;

根据得到当前集成模型的高层特征多样性表示,输出所述样本数据对应的输出结果;

根据所述样本数据及所述输出结果计算所述当前集成模型的目标损失函数,调整所述初始集成模型的参数值,将所述样本数据输入调整后的当前集成模型继续训练,直至所述目标损失函数收敛,得到目标深度集成模型;或者,

获取待识别图像;

将所述待识别图像输入目标深度集成模型中;所述目标深度集成模型包括K个基模型,所述目标深度集成模型通过所述的基于特征多样性学习的深度集成模型训练方法训练得到;

输出所述待识别图像的识别结果。

在一种可选的方式中,所述各个子区间内神经元的激活值的统计特征为所述各个子区间内神经元的个数;所述根据各个子区间内神经元的激活值的统计特征确定各个基模型在各个子区间中的神经元的保留概率,根据所述保留概率调整各个所述神经元的激活值,得到所述当前集成模型更新后的高层特征多样性表示,包括:确定神经元个数最多的前K个子区间为优先级区间;根据目标神经元的激活值是否位于目标优先级区间确定所述目标神经元的保留概率;根据所述保留概率调整所述目标神经元的激活值;根据调整后的目标神经元的激活值,得到当前集成模型更新的高层特征多样性表示;所述目标神经元为目标基模型中的所述神经元;所述目标基模型为任意一个所述基模型,所述目标优先级区间为所述目标基模型对应的优先级区间。

在一种可选的方式中,所述根据目标神经元的激活值是否位于目标优先级区间调整所述目标神经元的保留概率,包括:通过保留概率调整公式调整所述目标神经元的保留概率;

所述保留概率调整公式为:

其中,

在一种可选的方式中,所述根据所述样本数据及所述输出结果计算所述当前集成模型的目标损失函数,调整所述当前集成模型的参数值,将所述样本数据输入调整后的当前集成模型继续训练,直至所述目标损失函数收敛,得到目标深度集成模型,包括:

根据所述样本数据及所述输出结果通过预设损失函数分别计算各个所述基模型的分类损失;

根据各个所述基模型的分类损失关于样本数据的梯度,通过梯度正则项损失公式计算梯度正则项损失;

所述梯度正则项损失公式为:

其中,

根据所述分类损失及所述梯度正则项损失确定所述目标损失函数;

根据所述目标损失函数调整所述当前集成模型的参数值,将所述样本数据输入调整后的当前集成模型继续训练,直至所述目标损失函数收敛,得到目标深度集成模型。

在一种可选的方式中,所述根据所述样本数据及所述输出结果计算所述当前集成模型的目标损失函数,调整所述当前集成模型的参数值,将所述样本数据输入调整后的当前集成模型继续训练,直至所述目标损失函数收敛,得到目标深度集成模型之后,所述方法进一步包括:

确定所述目标深度集成模型中各个基模型高层特征层的激活向量;

计算所有所述基模型高层特征层的激活向量的均值和方差,并通过辨别分数公式计算总辨别分数;

所述辨别分数公式为:

其中,

本发明实施例的电子设备的具体工作过程与上述方法实施例的具体方法步骤一致,此处不再赘述。

本发明实施例在集成模型的训练过程中,通过调整各个基模型的高层特征层中各个神经元对应的激活值,从而使得各个基模型的特征多样化,以提高集成模型的鲁棒性。

进一步地,通过结合损失梯度的差异化处理,使得能够在保证对正常样本的泛化能力的同时,显著提高集成模型的鲁棒性,能够有效处理复杂数据集及防御对抗样本攻击。

本发明实施例提供了一种计算机可读存储介质,所述存储介质存储有至少一可执行指令,该可执行指令在电子设备上运行时,使得所述电子设备执行上述任意方法实施例中的基于特征多样性学习的深度集成模型训练方法或图像识别方法。

可执行指令具体可以用于使得电子设备执行以下操作:

获取样本数据;

将样本数据输入当前集成模型,得到每个基模型的高层特征向量;其中,所述当前集成模型包括K个所述基模型,K大于1;

根据所述K个基模型的高层特征向量中各个神经元的激活值,确定所述当前集成模型的激活强度区间;

将所述激活强度区间划分为M个子区间,根据各个子区间内神经元的激活值的统计特征确定各个基模型在各个子区间中的神经元的保留概率,根据所述保留概率调整各个所述神经元的激活值,得到所述当前集成模型更新的高层特征多样性表示;其中,M大于等于K;

根据得到当前集成模型的高层特征多样性表示,输出所述样本数据对应的输出结果;

根据所述样本数据及所述输出结果计算所述当前集成模型的目标损失函数,调整所述初始集成模型的参数值,将所述样本数据输入调整后的当前集成模型继续训练,直至所述目标损失函数收敛,得到目标深度集成模型;或者,

获取待识别图像;

将所述待识别图像输入目标深度集成模型中;所述目标深度集成模型包括K个基模型,所述目标深度集成模型通过所述的基于特征多样性学习的深度集成模型训练方法训练得到;

输出所述待识别图像的识别结果。

在一种可选的方式中,所述各个子区间内神经元的激活值的统计特征为所述各个子区间内神经元的个数;所述根据各个子区间内神经元的激活值的统计特征确定各个基模型在各个子区间中的神经元的保留概率,根据所述保留概率调整各个所述神经元的激活值,得到所述当前集成模型更新后的高层特征多样性表示,包括:确定神经元个数最多的前K个子区间为优先级区间;根据目标神经元的激活值是否位于目标优先级区间确定所述目标神经元的保留概率;根据所述保留概率调整所述目标神经元的激活值;根据调整后的目标神经元的激活值,得到当前集成模型更新的高层特征多样性表示;所述目标神经元为目标基模型中的所述神经元;所述目标基模型为任意一个所述基模型,所述目标优先级区间为所述目标基模型对应的优先级区间。

在一种可选的方式中,所述根据目标神经元的激活值是否位于目标优先级区间调整所述目标神经元的保留概率,包括:通过保留概率调整公式调整所述目标神经元的保留概率;

所述保留概率调整公式为:

其中,

在一种可选的方式中,所述根据所述样本数据及所述输出结果计算所述当前集成模型的目标损失函数,调整所述当前集成模型的参数值,将所述样本数据输入调整后的当前集成模型继续训练,直至所述目标损失函数收敛,得到目标深度集成模型,包括:

根据所述样本数据及所述输出结果通过预设损失函数分别计算各个所述基模型的分类损失;

根据各个所述基模型的分类损失关于样本数据的梯度,通过梯度正则项损失公式计算梯度正则项损失;

所述梯度正则项损失公式为:

其中,

根据所述分类损失及所述梯度正则项损失确定所述目标损失函数;

根据所述目标损失函数调整所述当前集成模型的参数值,将所述样本数据输入调整后的当前集成模型继续训练,直至所述目标损失函数收敛,得到目标深度集成模型。

在一种可选的方式中,所述根据所述样本数据及所述输出结果计算所述当前集成模型的目标损失函数,调整所述当前集成模型的参数值,将所述样本数据输入调整后的当前集成模型继续训练,直至所述目标损失函数收敛,得到目标深度集成模型之后,所述方法进一步包括:

确定所述目标深度集成模型中各个基模型高层特征层的激活向量;

计算所有所述基模型高层特征层的激活向量的均值和方差,并通过辨别分数公式计算总辨别分数;

所述辨别分数公式为:

其中,

本发明实施例的计算机可读存储介质在电子设备上运行时的具体工作过程与上述方法实施例的具体方法步骤一致,此处不再赘述。

本发明实施例在集成模型的训练过程中,通过调整各个基模型的高层特征层中各个神经元对应的激活值,从而使得各个基模型的特征多样化,以提高集成模型的鲁棒性。

进一步地,通过结合损失梯度的差异化处理,使得能够在保证对正常样本的泛化能力的同时,显著提高集成模型的鲁棒性,能够有效处理复杂数据集及防御对抗样本攻击。

本发明实施例提供一种基于特征多样性的集成模型训练装置,用于执行上述基于特征多样性学习的深度集成模型训练方法。

本发明实施例提供一种图像识别装置,用于执行上述图像识别方法。

本发明实施例提供了一种计算机程序,所述计算机程序可被处理器调用使电子设备执行上述任意方法实施例中的基于特征多样性学习的深度集成模型训练方法或图像识别方法。

本发明实施例提供了一种计算机程序产品,计算机程序产品包括存储在计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当程序指令在计算机上运行时,使得所述计算机执行上述任意方法实施例中的基于特征多样性学习的深度集成模型训练方法。

在此提供的算法或显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明实施例也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。

在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。

类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明实施例的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。

本领域技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。

应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。上述实施例中的步骤,除有特殊说明外,不应理解为对执行顺序的限定。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号