首页> 中国专利> 基于空间特征变换和跨尺度特征集成的人脸超分辨方法

基于空间特征变换和跨尺度特征集成的人脸超分辨方法

摘要

本发明公开了一种基于空间特征变换和跨尺度特征集成的人脸超分辨方法,具体按照如下步骤实施:预处理人脸图像,得到训练集和测试集,将预处理后的人脸图像进行处理生成语义分割概率图;构建用于训练的生成对抗网络模型;将训练集内的人脸图像依次输入构建的生成对抗网络模型中,设置参数,训练并达到收敛,将测试集中的人脸图像输入训练好的生成对抗网络模型中,得到超分辨重建后的高分辨图像。本发明的基于空间特征变换和跨尺度特征集成的人脸超分辨方法,解决了现有技术中存在的现有方法忽略了重建的人脸图像中纹理细节的问题。

著录项

  • 公开/公告号CN112270644A

    专利类型发明专利

  • 公开/公告日2021-01-26

    原文格式PDF

  • 申请/专利权人 西安工程大学;

    申请/专利号CN202011124368.0

  • 申请日2020-10-20

  • 分类号G06T3/40(20060101);G06T7/40(20170101);G06N3/04(20060101);G06K9/62(20060101);G06K9/00(20060101);

  • 代理机构61214 西安弘理专利事务所;

  • 代理人弓长

  • 地址 710048 陕西省西安市碑林区金花南路19号

  • 入库时间 2023-06-19 09:40:06

说明书

技术领域

本发明属于人脸图像识别技术领域,涉及一种基于空间特征变换和跨尺度特征集成的人脸超分辨方法。

背景技术

现有与人脸相关的任务,如人脸识别、人脸对齐、表情识别和三维人脸重建等都是基于清晰的高分辨率人脸数据集实现的,在面对低分辨人脸图像时,效果出现明显下降.因此,人脸超分辨技术在计算机视觉和生物识别领域显得尤其重要。此外,受传统数字成像设备的固有限制,所获得的人脸图像往往经过了光学模糊、欠采样等一系列退化过程,最终难以获得视觉感官上较清晰的图像。图像超分辨技术作为一种有效的图像恢复手段,能有效克服因为成像设备物理分辨率限制和光学模糊等导致图像分辨率低的问题。

人脸超分辨率方法大致分为两类:基于经典机器学习算法的传统方法和基于卷积神经网络的深度学习方法。其中,基于深度学习的超分辨方法因其优越的重建性能而获得人们广泛关注。然而,现有的人脸图像超分辨率算法大多数只关注16×16像素的“微小脸”超分辨重建,即也称为“人脸幻象”,而忽略了实际应用中常见的“较小脸”如64×64像素的人脸图像重建;也正因如此,这些方法所获得的结果图像往往只能满足人脸检测任务,而并不能使其与真实人脸保持身份一致性。另外,这些方法往往追求很高的峰值信噪比和结构相似性,而忽略了重建的人脸图像中纹理细节是否满足人眼对视觉感知质量的要求。

发明内容

本发明的目的是提供一种基于空间特征变换和跨尺度特征集成的人脸超分辨方法,解决了现有技术中存在的现有方法忽略了重建的人脸图像中纹理细节的问题。

本发明所采用的技术方案是,基于空间特征变换和跨尺度特征集成的人脸超分辨方法,具体按照如下步骤实施:

步骤1,从人脸数据集中随机选取N张人脸图像,然后对人脸图像进行预处理,生成训练集和测试集;

步骤2,采用人脸解析预训练模型BisNet作为语义分割概率图生成的基网络,将步骤1预处理后的人脸图像进行处理生成语义分割概率图;

步骤3,构建用于训练的生成对抗网络模型,生成对抗网络模型包括依次连接的语义分割概率图中间条件生成模块、空间特征变换模块、跨尺度特征集成模块和融合输出模块,跨尺度特征集成模块内引入图像上采样的亚像素卷积层,生成对抗网络模型引入对抗损失函数和感知损失函数;

步骤4,将步骤1得到的训练集内的人脸图像依次输入构建的生成对抗网络模型中,设置参数,训练并达到收敛;

步骤5,将步骤1中的测试集中的人脸图像输入经步骤4训练好的生成对抗网络模型中,得到超分辨重建后的高分辨图像。

步骤1中的人脸数据集为CelebA-HQ人脸数据集。

步骤1中对训练集中的人脸图像进行预处理具体为:采用双立方插值算法对训练集中的图像进行下采样,输出尺寸为512×512的插值图像I

步骤2具体为:

采用人脸解析预训练模型BisNet作为语义分割概率图生成的基网络,修改人脸解析预训练模型BisNet的输出层,具体为:在人脸解析预训练模型BisNet的输出层加入softmax函数,将步骤1得到的语义分割网络输入图像I

步骤4具体为:

步骤4.1,设置训练参数,将训练和测试输入图像I

步骤4.2,语义分割概率图中间条件生成模块将训练和测试输入图像I

步骤4.3,前层特征图和语义信息中间条件Ψ作为空间特征变换模块的输入,空间特征变换模块输出特征图F1;

步骤4.4,将步骤4.3中输出特征图F1输入到跨尺度集成模块中,得到不同尺度特征,然后将不同尺度特征输入至融合输出模块,得到超分辨图像,记为I

步骤4.5,将超分辨图像I

步骤4.6,不断迭代步骤4.4-4.5,使得对抗损失和感知损失的总和达到最小,然后将对应的参数作为训练好的模型参数,得到训练好的生成对抗网络模型。

语义分割概率图中间条件生成模块包括依次连接的五个卷积层,第一个卷积层的输入通道数为19,输出通道数为128,卷积核大小为4×4,卷积步长为4,修正线性单元的负值非零斜率为0.1;第二个卷积层的输入通道数为128,输出通道数为128,卷积核大小为1×1,卷积步长为4,修正线性单元的负值非零斜率为0.1;第三个卷积层输入通道数为128,输出通道数为128,卷积核大小为1×1,卷积步长为1,修正线性单元的负值非零斜率为0.1,第四个卷积层的输入通道数为128,输出通道数为128,卷积核大小为1×1,卷积步长为1;最后再用一个卷积层的输入通道数为128,输出通道数为32,卷积核大小为1×1,卷积步长为1,最后再用一个卷积层输出包含语义信息的中间条件记为Ψ;

空间特征变换模块由8个带有空间特征变换层的残差单元组成,每个残差单元由空间特征变换层、卷积层、非线性激活层构成。

步骤4.4中将步骤4.3中输出特征图F1输入到跨尺度集成模块中,得到不同尺度特征具体为:

输出特征图F1在跨尺度集成模块中首先经过一个卷积层对维数升高4倍,再经过亚像素卷积对输出特征图F1进行上采样2倍得到特征图F2;同时输出特征图F1通过双立方插值放大2倍后与特征图F2进行通道上的融合,得到特征图F3_1,并向后传递;并且将特征图F2通过一个步长为2的卷积实现缩小两倍后与特征图F1进行通道上的融合,得到特征图F3_2并向后传递;F3_1和F3_2分别输入两个残差特征提取模块,输出的特征图分别记为特征图F4_1和特征图F4_2,特征图F4_1分别通过直接输出得到特征图F5_2、利用步长为2的卷积进行下采样2倍输出得到特征图F5_1,利用双三次插值进行上采样2倍输出得到特征图F5_3;

特征图F4_1利用第二个亚像素上采样2倍,输出特征图F5,然后特征图F5分别直接输出得到F6_3、利用步长为2的卷积进行下采样2倍输出得到F6_2、利用步长为4的卷积进行下采样4倍输出得到F6_1;

F4_2分别直接输出得到F7_1、双三次插值2倍得到F7_2、双三次插值4倍得到F7_3;接下来,将同为小尺度的F5_1、F6_1、F7_1进行特征融合后接着输入到由4个残差块构成的特征提取模块中,输出特征图通过插值上采样模块进行4倍放大输出特征图F8_1;同理,将同为中尺度的特征图F5_2、F6_2、F7_2进行特征融合后接着输入到由4个残差块构成的残差特征提取模块中,输出特征图通过插值上采样模块进行2倍放大输出F8_2;将同为大尺度的F5_3、F6_3、F7_3进行特征融合后接着输入到由4个残差块构成的残差特征提取模块中,输出特征图直接输出F8_3。

步骤4.4中将不同尺度特征输入至融合输出模块,得到重建后的超分辨结果具体为:

将不同尺度的特征图F8_1、F8_2、F8_3进行特征融合,然后用两个卷积层逐级降维输出得到重建后的超分辨图像,记为I

步骤4.6的感知损失函数为:

对抗损失函数为:

L

其中,φ(I

本发明的有益效果是:

(1)使用的空间特征变换层通过转换单个网络的中间特征,只需一次正向传递就可以实现具有丰富语义区域的高分辨率图像的重建。

(2)重建网络使用语义映射来指导高分辨率域中不同区域的纹理恢复,同时,利用概率图来捕捉精细的纹理细节。

(3)跨尺度特征集成模块使传输中的纹理特征在各个尺度上进行交换,实现了更有效的特征表示,从而进一步提高了超分辨重建算法的性能。

附图说明

图1是本发明于空间特征变换和跨尺度特征集成的人脸超分辨方法中实施例1-1的结果对比图;

图2是本发明于空间特征变换和跨尺度特征集成的人脸超分辨方法中实施例1-2的结果对比图.

具体实施方式

下面结合附图和具体实施方式对本发明进行详细说明。

基于空间特征变换和跨尺度特征集成的人脸超分辨方法,具体按照如下步骤实施:

步骤1,从人脸数据集中随机选取N张人脸图像,然后对人脸图像进行预处理,生成训练集和测试集;具体为:从CelebA-HQ人脸数据集中随机选取1000张人脸图像作为训练集,100张作为测试集,采用双立方插值算法对训练集中的高分辨图像进行下采样,输出尺寸为512×512的插值图像I

步骤2,采用人脸解析预训练模型BisNet作为语义分割概率图生成的基网络,将步骤1预处理后的人脸图像进行处理生成语义分割概率图;具体为:

采用人脸解析预训练模型BisNet作为语义分割概率图生成的基网络,修改人脸解析预训练模型BisNet的输出层,具体为:在人脸解析预训练模型BisNet的输出层加入softmax函数,将步骤1得到的语义分割网络输入图像I

步骤3,构建用于训练的生成对抗网络模型,生成对抗网络模型包括依次连接的语义分割概率图中间条件生成模块、空间特征变换模块、跨尺度特征集成模块和融合输出模块,跨尺度特征集成模块内引入图像上采样的亚像素卷积层,生成对抗网络模型引入对抗损失函数和感知损失函数;

步骤4,将步骤1得到的训练集内的人脸图像依次输入构建的生成对抗网络模型中,设置参数,训练并达到收敛;

步骤5,将步骤1中的测试集中的人脸图像输入经步骤4训练好的生成对抗网络模型中,得到超分辨重建后的高分辨图像。

步骤4具体为:

步骤4.1,设置训练参数,将训练和测试输入图像I

步骤4.2,语义分割概率图中间条件生成模块将训练和测试输入图像I

步骤4.3,前层特征图和语义信息中间条件Ψ作为空间特征变换模块的输入,空间特征变换模块输出特征图F1,空间特征变换模块由8个带有空间特征变换层的残差单元组成,每个残差单元由空间特征变换层、卷积层、非线性激活层构成;在每个残差单元由空间特征变换层、卷积层和非线性激活层构成,结构见表2;其中,空间特征变换层以上一层特征图和语义信息中间条件Ψ为输入,经过内部的两组卷积生成一对调制参数(γ,β),通过相乘和相加实现了在空间上对特征图的仿射变换;

其数学描述为:

SFT(F|γ,β)=γ⊙F+β

其中,F代表特征图,其维数和γ和β的维度一致,⊙为矩阵对应位置元素的点乘操作。

步骤4.4,将步骤4.3中输出特征图F1输入到跨尺度集成模块中,得到不同尺度特征,然后将不同尺度特征输入至融合输出模块,得到超分辨图像,记为I

特征图F4_1利用第二个亚像素上采样2倍,输出特征图F5,然后特征图F5分别直接输出得到F6_3、利用步长为2的卷积进行下采样2倍输出得到F6_2、利用步长为4的卷积进行下采样4倍输出得到F6_1;

F4_2分别直接输出得到F7_1、双三次插值2倍得到F7_2、双三次插值4倍得到F7_3;接下来,将同为小尺度的F5_1、F6_1、F7_1进行特征融合后接着输入到由4个残差块构成的特征提取模块中,输出特征图通过插值上采样模块进行4倍放大输出特征图F8_1;同理,将同为中尺度的特征图F5_2、F6_2、F7_2进行特征融合后接着输入到由4个残差块构成的残差特征提取模块中,输出特征图通过插值上采样模块进行2倍放大输出F8_2;将同为大尺度的F5_3、F6_3、F7_3进行特征融合后接着输入到由4个残差块构成的特征提取模块中,直接输出特征图F8_3,残差块结构见表3;

将不同尺度的特征图F8_1、F8_2、F8_3进行特征融合,然后用两个卷积层逐级降维输出得到重建后的超分辨图像,记为I

步骤4.5,将超分辨图像I

步骤4.6,不断迭代步骤4.4-4.5,使得对抗损失和感知损失的总和达到最小,然后将对应的参数作为训练好的模型参数,得到训练好的生成对抗网络模型,其中,感知损失函数为:

对抗损失函数为:

L

其中,φ(I

本发明将每步的训练数据量即bachsize设置为16,设置迭代3000轮,感知损失权重设为1,对抗损失权重设置为10

表1

表2

如表2所示,SFT即为空间特征变换层,Scale_Conv0和Scale_Conv1为两个卷积层,其可学习得到缩放参数γ;Shift_Conv0和Shift_Conv1为两个卷积层,其可学习得到平移参数β。括号中对应参数从左到右分别表示该层的输入特征图个数、输出特征图个数、卷积核大小、步长大小。

表3

如表3所示,该模块由卷积层、激活层、卷积层构成,括号中对应参数从左到右分别表示该层的输入特征图个数、输出特征图个数、卷积核大小、步长大小。

实施例

为了更方便地生成人脸语义分割概率图,并且更容易对比图像细节,本发明在实验上采用人脸高清数据集CelebA-HQ,从中随机选择部分人脸图像在4倍放大下比较结果;另外为了更好地量化图像质量分数,使其更符合人眼感官,本发明除了比较PSNR(峰值信噪比)和SSIM(结构相似性),还会计算其局部块相似度和基于马超等人提出的感知指标参数。采用现有较为先进的技术如MSRN(多尺度残差网路)、EDSR(改进的深度残差超分辨网络)方法、SRFBN(超分辨反馈网络)方法、SFTGAN(空间特征变换网络)方法、ESRGAN(改进的超分辨生成对抗网络)方法和本发明方法获得的PSNR值、SSIM值、LPIPS值和PI值分别如下表所示:

经对比,本发明方法不论在主观视觉质量如图1和2所示,还是客观评价指标上均优于其他几种对比方法,尤其和较为先进的ESRGAN(改进的超分辨生成对抗网络)相比,几乎获得了和其同等的性能,但是本发明的参数量却仅有4,604,262,而ESRGAN(改进的超分辨生成对抗网络)的参数量为16,697,987。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号