技术领域
本发明涉及模式识别技术领域,尤其涉及一种视角和标签双重缺失下的深度不完整多视角多标签分类方法。
背景技术
近年来,多视角学习在机器学习和计算机视觉领域都受到了许多关注,在诸如推荐系统、生物特征分析、视频图像标注、疾病诊断等应用场景都有许多成功的应用案例。多视角学习主要通过联合挖掘多个传感器或从多个不同源域采集到的多视角数据信息来得到更好的性能。在多视角多标签分类研究领域,基于潜在语义感知的多视角多标签分类方法(Latent semantic aware multi-view multi-label classification)、流形正则多视角多标签分类方法(Manifold regularized multi-view multi-label classification)和多视角标签嵌入方法是其中比较具有代表性的方法,这些传统方法的模型普遍假定用于模型训练的多视角数据含有完整的视角和标签信息。然而,在实际应用中,所采集到的多视角数据通常不完整,存在部分标签信息和视角信息缺失的现象。例如,在基于视频图像、文本和音频的多媒体视频数据标注任务中,存在部分视频文件中缺失文本字幕信息或声音的现象;此外,由于视频标注的模糊性和复杂性,很难人为对所有视频都贴上准确的标签信息,导致出现部分视角信息缺失和标签信息缺失的不完整多视角多媒体视频数据。
显然,基于视角和标签完备性假设的传统多视角多标签分类模型无法直接处理含有视角缺失或标签信息缺失的数据。近年来,针对视角缺失或标签信息缺失下的多视角学习问题,学者们也进行了一些研究,但是当前研究成果大多仅能处理其中一种信息缺失下的多视角学习问题。例如,多视角嵌入学习(Multi-view embedding learning)方法被提出来解决不完整标签信息情形下的学习问题,但是该方法并不能处理视角信息不完整的数据;不完整多视角学习(Multi-view learning with incomplete views)针对视角缺失下的多视角学习问题提供了解决方案,但是该方法不能处理不完整标签信息下的多视角数据分类任务。
根据调研,目前国内外能够同时处理不完整视角和不完整标签信息下多视角数据的方法还不多见。为了解决不完整视角和不完整标签信息下多视角数据分类难题,不完整多视角弱标签学习(incomplete multi-view weak-label learning,iMvWLL)设计了一种基于加权矩阵分解的模型,其中一个矩阵分解模型用于得到多个视角间的共享表征,而另一个矩阵分解模型则用于标签预测。该工作是罕见的能够同时解决两种不完整信息下的多视角分类方法,但是该方法存在诸多缺陷,如:1)该方法所得到的模型不能处理新数据;2)该模型扩展性差,不能直接处理含有图像、文本、音频等混合形式的多视角数据;3)该方法特征抽取能力弱、性能差。
发明内容
为了解决多视角学习中的视角和标签信息双重缺失难题,并满足实际应用场景中实时处理新数据和高性能的需求,本发明提供了一种视角和标签双重缺失下的深度不完整多视角多标签分类方法。
本发明提供了一种视角和标签双重缺失下的深度不完整多视角多标签分类方法,包括网络模型训练步骤和测试样本标签预测步骤,
所述网络模型训练步骤包括:
步骤1,数据输入及填充步骤:输入不完整多视角多标签训练数据,将数据和标签矩阵中的缺失值用0值填充;
步骤2,数据划分步骤:将填充后的数据和标签矩阵随机划分为
步骤3,特征编码步骤:将第i个子集数据(
步骤4,加权表征融合步骤:将步骤3得到的各视角的鉴别表征输入到加权表征融合模块,通过式
步骤5:包括多标签分类步骤和多视角深度解码步骤,在所述多标签分类步骤中,将步骤4得到的融合表征输入多标签分类模块,通过式
步骤6,网络损失计算步骤:根据多标签分类模块和多视角深度解码模块的输出结果,通过式(4),得到该输入子集对应的网络损失L
步骤7:根据步骤6得到的网络损失值L
步骤8,收敛性判断步骤:当迭代步数t>3且
所述测试样本标签预测步骤包括:
步骤A,数据输入及填充步骤:输入不完整多视角多标签测试数据,将数据中的缺失视角用0值填充;
步骤B,深度特征编码步骤:将填充后的数据
步骤C,加权表征融合步骤:将步骤B的鉴别表征和索引矩阵W∈R
步骤D,多标签分类步骤:将融合表征
步骤E,识别结果输出步骤:根据多标签分类标签定义规则
作为本发明的进一步改进,在所述步骤6中,第i个输入数据子集对应的损失值为
作为本发明的进一步改进,在所述步骤8中,可根据式
作为本发明的进一步改进,所述深度多视角特征提取网络由多个视角所对应的多层深度特征编码网络组成。
作为本发明的进一步改进,所述多层深度特征编码网络的结构可根据输入数据类型灵活设计,包括向量型深度特征编码网络或图像型深度特征提取网络;针对向量型输入数据,所述向量型深度特征编码网络由四个线性层和三个线性整流激活函数组成,若输入向量型视角的特征维度为m
作为本发明的进一步改进,在所述加权表征融合模块中,
其中
作为本发明的进一步改进,所述多标签分类模块设计了如下加权多标签分类损失函数:
其中G为标签信息索引矩阵,若不确定第i个样本是否含有第j类标签,则G
作为本发明的进一步改进,所述深度多视角解码网络由l个独立的含有多个网络层的解码网络组成,将各个视角的解码网络设计为该视角深度多视角特征提取网络相反的结构。
作为本发明的进一步改进,所述多视角加权重构损失函数:
上式中,
本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序配置为由处理器调用时实现本发明所述的深度不完整多视角多标签分类方法的步骤。
本发明的有益效果是:本发明不仅适用于任何不完整/完整多视角多标签分类情形;而且同样适用于半监督分类和全监督分类情形。本发明具有很高的实时性,能够实时在线处理完整/不完整多视角多标签数据的分类任务。
附图说明
图1是深度双重不完整多视角多标签分类网络的原理图;
图2是向量型视角的深度特征编码网络示意图;
图3是图像型视角的深度特征编码网络示意图;
图4是加权表征融合模块示意图;
图5是向量型视角的深度解码网络示意图;
图6是图像型视角的深度解码网络示意图;
图7(a)是网络模型训练流程图;
图7(b)是测试样本标签预测流程图。
具体实施方式
为了解决多视角多标签分类领域中存在的视角信息不完整和标签信息不完整等两个挑战性问题,本发明设计了一种更鲁棒、更灵活和更高性能的深度双重不完整多视角多标签分类模型,该模型的结构图如图1所示。本发明所设计的模型主要由四个模块组成:深度多视角特征提取网络、加权表征融合模块、多标签分类模块和深度多视角解码网络。深度多视角特征提取网络能够从复杂的原始多视角数据中挖掘其高阶鉴别特征;加权表征融合模块一方面可融合多视角互补信息,另一方面能够解决视角缺失所造成的不利影响;多标签分类模块可消除缺失标签的不利影响,让模型更充分地利用未缺失标签的监督信息;深度多视角解码网络则用于重构数据,并通过最小化数据重构误差,让模型更充分地利用数据自身的信息。
深度多视角特征提取网络:传统多视角多标签分类模型中常用的矩阵分解模型特征抽取能力弱、灵活性不足,不同于传统方法,本发明针对不同的视角设计了深度多视角特征提取网络,该网络能够自适应地提取数据中的高阶鉴别特征。具体地,该网络由多个视角所对应的多层深度特征编码网络组成,每个视角的深度特征编码网络可根据输入数据的类型灵活扩展。以向量型和图像型数据为例,本发明设计了如图2和图3所示的深度特征编码网络。如图2所示,针对向量型视角,本发明的向量型深度特征编码网络主要由四个线性层和三个线性整流(ReLU)激活函数组成,若输入向量型视角的特征维度为m
加权表征融合模块:将各个视角深度特征编码网络的输出定义为
其中
加权表征融合模块的具体示意图如图4所示。
多标签分类模块:加权分类模块主要由一个线性层和一个Sigmoid激活函数组成,将加权表征融合模块的输出输入到线性层,在经过Sigmoid激活函数即可得到该输入样本的标签预测结果。本发明中,线性层的维度为数据的标签总数c,其中为了解决缺失标签信息对模型训练的不利影响,本发明设计了如下加权多标签分类损失函数:
其中G为标签信息索引矩阵,若不确定第i个样本是否含有第j类标签,则G
深度多视角解码网络:本发明的深度多视角解码网络主要由l个独立的含有多个网络层的解码网络组成,期望能够在视角和标签信息缺失情形下捕获数据自身更多的信息,以得到更好的特征抽取和分类模型。具体地,为了对输入数据的各个视角进行重构,本发明将各个视角的解码网络设计为该视角深度特征提取网络相反的结构,例如,对于向量型数据,本发明的深度解码网络结构如图5所示,主要由5个线性层和4个ReLU激活函数组成,其中对于第v个向量型输入视角而言,线性层的维度分别设置为d、1500、0.8m
上式中,
本发明完整的目标损失函数:如前所述,本发明的深度模型主要包含4个模块,其中涉及分类损失和数据重构损失,因此本发明总的模型损失函数表示为:
L=L
上式中,α为可调节的惩罚项参数。通过联合优化目标损失函数L,即可得到本发明最优的不完整多视角多标签深度分类模型。
本发明包括网络模型训练步骤和测试样本标签预测步骤,下面进行具体的说明:
为了便于后续阐述,首先给出原始输入数据的符号定义:原始多视角数据用
如图7(a)所示,网络模型训练步骤包括:
步骤1,数据输入及填充步骤:输入不完整多视角多标签训练数据,将数据和标签矩阵中的缺失值用0值填充。并定义模型训练初始迭代步数t=1。
步骤2,数据划分步骤:将填充后的数据和标签矩阵随机划分为
步骤3,特征编码步骤:令i=0,将上述第i个子集数据(
步骤4,加权表征融合步骤:将上一步得到的各视角的表征输入到加权表征融合模块,通过式
步骤5:包括多标签分类步骤和多视角深度解码步骤,在所述多标签分类步骤中,将步骤4得到的融合表征输入多标签分类模块,通过式
在所述多视角深度解码步骤中,将步骤4得到的输入子集的融合表征输入到本发明中的深度多视角解码网络,得到输入子集对应的重构数据
步骤6,网络损失计算步骤:根据多标签分类模块和多视角深度解码模块的输出结果,通过式(4),得到该输入子集对应的网络损失L
步骤7:根据步骤6得到的网络损失值L
步骤8,收敛性判断步骤:当迭代步数t>3且
所述测试样本标签预测步骤包括:
便于后面阐述,定义与训练数据具有相同数据类型的不完整多视角测试数据表示为
步骤A,数据输入及填充步骤:输入不完整多视角多标签测试数据,将数据中的缺失视角用0值填充。
步骤B,深度特征编码步骤:将填充后的数据
步骤C,加权表征融合步骤:将步骤B的鉴别表征和索引矩阵W∈R
步骤D,多标签分类步骤:将融合表征
步骤E,识别结果输出步骤:根据多标签分类标签定义规则
视角缺失和标签缺失是多视角多标签分类场景的两个挑战性问题。过去几年,学者们对这两个挑战性问题进行了大量研究,但是这些方法普遍只适用于其中一种信息缺失下的多视角学习问题。在本发明中,我们提出了一种新颖的深度双重不完整多视角多标签分类方法,该方法能够同时解决视角缺失和标签缺失下的多视角多标签分类问题。该方法主要由四大结构组成:深度多视角特征提取网络、加权表征融合模块、多标签分类模块和深度多视角解码网络。通过分别将视角缺失信息和标签缺失信息引入加权表征融合模块和多标签分类模块,该方法能够有效地利用未缺失视角和标签信息来训练模型,进而消除视角缺失和标签缺失对模型训练的不利影响。在五个公开数据集上的实验验证了本方法能够大幅度地提升部分视角和标签双重缺失下的不完整多视角多标签分类性能。
本发明是一种利用深度学习技术、数字图象处理技术、模式识别理论等实现多视角数据自适应分类的方法,该方法能够应用在诸如人脸识别、车辆识别等安防场景,也能灵活应用在疾病诊断、图像检索、推荐系统分析、金融分析和多媒体分析等领域。
在应用方面,这里不介绍训练数据的获取,默认已搜集到应用场景大量的训练数据。以基于人脸、舌苔、呼出的气味、脉搏信号等多模态信息疾病诊断为例:假设已经采集到大量用户的人脸、舌苔、气味、脉搏等部分信息数据和其对应的诸如糖尿病、脂肪肝、甲亢、胃癌等多种疾病诊断标签数据,这些多模态数据可以是完整,也可是不完整的数据,将采集到的数据输入到本发明图7(a)所示的训练方案中,训练该类疾病诊断的分类模型;当模型训练好后,即可将训练好的分类模型部署在个人电脑或嵌入到下位机中按照图7(b)所示的测试步骤对采集到的用户数据进行实时分类,并报告疾病诊断结果。
图像中一般含有多种目标信息,如一张图像含有猫、狗、草等多种类型目标,同时可能含有文本解释信息。在图像检索场景可通过搜集带有标记信息的文本和图像等两种模态信息的训练数据,然后以此作为图7(a)的训练数据来训练用于图像检索的多模态多标签分类模型;模型训练好后,即可根据此模型来进行图像的检索。图像检索可通过输入文本信息检索、也可以通过输入相似图片检索。
同理,在多视角人脸识别、车辆识别、推荐系统分析、金融分析和音视频多媒体分析领域,只需要提前采集到的相关场景的一定规模的数据并人工贴上一定数量的标签信息,即可利用图7(a)来训练相关场景的多视角多标签分类模型,然后利用图7(b),根据实时采集的数据和训练好的模型得到实时的分类结果。
本发明的有益效果如下:
1)本发明是第一个能够同时解决不完整视角和不完整标签信息问题的多视角多标签深度分类网络。本深度网络不仅适用于任何不完整/完整多视角多标签分类情形;而且同样适用于半监督分类和全监督分类情形。
2)本发明具有很高的实时性,能够实时在线处理完整/不完整多视角多标签数据的分类任务。
3)在5个不完整多视角多标签数据集上的实验表明了本发明获得了最优性能。
表格1在视角缺失率为50%、标签缺失率为50%、训练样本率为70%时的五个数据集上所得到的平均精度(Average Precision,AP)。其中iMvWLL是目前国内外唯一适用于不完整多视角多标签分类任务的方法。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
机译: 标签管理系统,标签缺失判断系统,铁路车辆通过判断系统,标签缺失决策方法和铁路车辆通过判断方法
机译: 多视角视频图像的深度搜索方法及深度估计方法
机译: 基于多视角摄像机的深度图像估计方法