首页> 中国专利> 基于高阶奇异值分解的视频融合性能评价方法

基于高阶奇异值分解的视频融合性能评价方法

摘要

本发明公开了一种基于高阶奇异值分解的视频融合性能评价方法,主要解决现有技术不能对含噪声视频图像的融合性能进行评价的问题。其实现步骤为:分别输入已配准的两个参考视频和一个融合视频;将已输入的视频组成一个四阶张量,并对其进行高阶奇异值分解,得到各自的空间几何特征背景图像和时间运动特征图像;再通过阈值化方法将时间运动特征图像划分为运动目标区域和噪声区域;然后分别设计不同的评价指标对各区域进行评价;最后通过幂指数乘法构建出整体性能评价指标,从而实现对视频图像整体融合性能的评价。本发明能够对噪声环境下视频的融合性能进行有效、准确和客观地评价,可用于监控融合视频图像质量。

著录项

  • 公开/公告号CN103905815A

    专利类型发明专利

  • 公开/公告日2014-07-02

    原文格式PDF

  • 申请/专利权人 西安电子科技大学;

    申请/专利号CN201410099933.0

  • 发明设计人 张强;华胜;袁小青;王龙;

    申请日2014-03-19

  • 分类号H04N17/00(20060101);

  • 代理机构61205 陕西电子工业专利中心;

  • 代理人王品华;朱红星

  • 地址 710071 陕西省西安市太白南路2号

  • 入库时间 2023-12-17 00:30:37

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2022-03-11

    未缴年费专利权终止 IPC(主分类):H04N17/00 专利号:ZL2014100999330 申请日:20140319 授权公告日:20160113

    专利权的终止

  • 2016-01-13

    授权

    授权

  • 2014-07-30

    实质审查的生效 IPC(主分类):H04N17/00 申请日:20140319

    实质审查的生效

  • 2014-07-02

    公开

    公开

说明书

技术领域

本发明涉及视频图像处理领域,特别涉及含噪声的视频融合性能评价方法,该方 法能够有效评价噪声环境下视频融合性能,可用于监控融合视频图像质量。

背景技术

随着图像融合技术广泛应用于目标跟踪、检测和机器视觉等领域中,图像融合性 能评价也变得越来越重要,目前,绝大多数图像融合性能评价指标都是针对静态图像 融合方法的,而有关视频图像融合方法的较少。视频图像融合不仅在空间性能上要满 足一般图像融合的基本要求,即融合后视频图像中各帧图像不仅要尽可能地保留输入 视频图像各帧图像中的有用信息,而且要避免引入虚假信息等;在时间性能上还要满 足时间一致性和稳定性的要求,即融合后视频图像中各帧图像之间的灰度值差异仅能 由输入视频图像中各帧图像之间的灰度值差异引起。可以采用逐帧评价的方式将静态 图像融合性能评价指标用于视频融合性能评价中,但这种评价方法只能从空间信息提 取一个方面对视频图像融合算法进行评价。为了评价各视频融合算法在时间一致性和 稳定性方面的融合性能,也有一些学者提出了相关算法,例如,Petrovic等在基于空 间梯度信息保留的融合性能评价指标的基础上,设计了一种基于空间-时间联合梯度 信息保留的视频图像融合性能评价指标(V.Petrovic,T.Cootes,R.Pavlovic,“Dynamic  image fusion performance evaluation,”10th International Conference on Information  Fusion,2007),西安电子科技大学申请的专利“基于结构相似度和人眼视觉的视频图 像融合性能评价方法”(申请号:CN201110205480.1,申请公开号:CN102231844A) 中公开的一种全局视频融合质量指标。但是这些算法与静态图像融合性能评价指标一 样,主要是针对干净视频图像融合而设计的,但实际上视频在获取或者传输过程中是 很容易受到噪声干扰。而现有视频融合性能评价指标都把噪声误认为重要信息,在对 进行了噪声抑制的视频融合算法进行评价时,会认为其丢失了重要信息,从而获得与 主观评价结果不一致甚至相反的结果。

发明内容

本发明的目的在于克服上述已有技术的不足,提出一种基于高阶奇异值分解的视 频融合性能评价方法,以对在噪声环境下的视频融合性能进行有效、准确和客观的评 价。

实现本发明的技术方案是:将输入的参考视频和融合视频构建成一个四阶张量, 对其进行高阶奇异值分解HOSVD,将视频图像中的空间几何特征和时间特征有效地 区分开来;再通过阈值化方法将时间特征中的时间运动特征和噪声有效地区分开来; 然后分别定义不同的评价指标对各个特征区域进行评价,最后定义全局评价指标对视 频图像融合性能进行整体评价。其具体实现步骤如下:

(1)分别输入两幅参考视频和一幅融合视频,即第一幅参考视频a、第二幅参考 视频b以及融合视频f;

(2)用输入的第一幅参考视频a、第二幅参考视频b以及融合视频f,构成一个 四阶张量υ(x,y,t,n):

υ(x,y,t,n)=a(x,y,t),n=1b(x,y,t),n=2f(x,y,t),n=3,

其中(x,y)表示空间坐标,t表示时间坐标,n表示四阶张量第四维坐标;

(3)对上述四阶张量υ(x,y,t,n)进行高阶奇异值分解,得到核心张量δ、x方向上 的正交矩阵Q、y方向上的正交矩阵I、t方向上的正交矩阵G和n方向上的正交矩 阵W,并将其进行乘积运算,得到特征图像ζ(x,y,t,n);

(4)根据时间坐标t和四阶张量第四维坐标n的取值,对特征图像ζ(x,y,t,n)进行分 类:

当t=1,n=1时,则用特征图像ζ(x,y,t,n)表示第一幅参考视频a的空间几何特 征背景图像ζ(x,y,1,1);

当t≠1,n=1时,则用特征图像ζ(x,y,t,n)表示第一幅参考视频a的时间运动特 征图像ζ(x,y,t,1);

当t=1,n=2时,则用特征图像ζ(x,y,t,n)表示第二幅参考视频b的空间几何特 征背景图像ζ(x,y,1,2);

当t≠1,n=2时,则用特征图像ζ(x,y,t,n)表示第二幅参考视频b的时间运动特 征图像ζ(x,y,t,2);

当t=1,n=3时,则用特征图像ζ(x,y,t,n)表示融合视频f的空间几何特征背景 图像ζ(x,y,1,3);

当t≠1,n=3时,则用特征图像ζ(x,y,t,n)表示融合视频f的时间运动特征图像 ζ(x,y,t,3);

(5)根据第一幅参考视频a的空间几何特征背景图像ζ(x,y,1,1)、第二幅参考视频 b的空间几何特征背景图像ζ(x,y,1,2)和融合视频f的空间几何特征背景图像 ζ(x,y,1,3),利用基于结构相似度的评价指标Qs,对空间几何特征背景的融合性能进 行评价;

(6)通过阈值化法将第一幅参考视频a的时间运动特征图像ζ(x,y,t,1)和第二幅 参考视频b的时间运动特征图像ζ(x,y,t,2)均划分成运动目标区域R1和噪声区域R2

(7)对运动目标区域R1和噪声区域R2的融合性能进行评价:

7.1)根据第一幅参考视频a的每一帧时间运动特征图像ζ(x,y,t,1)和融合视频 f中与之对应帧的时间运动特征图像ζ(x,y,t,3),得到第一幅参考视频a和融合视频 f对应运动目标区域的时间评价指标Qaf(t):

Qaf(t)=2Σ(x,y)R1|ζ(x,y,t,1)ζ(x,y,t,3)|Ea(t)+Ef(t),

其中,Ea(t)表示第一幅参考视频a的时间运动特征图像ζ(x,y,t,1)的运动目标区 域的能量,Ef(t)表示融合视频f的时间运动特征图像ζ(x,y,t,3)的运动目标区域的 能量;

7.2)根据第二幅参考视频b的每一帧时间运动特征图像ζ(x,y,t,2)和融合视频 f中与之对应帧的时间运动特征图像ζ(x,y,t,3),得到第二幅参考视频b和融合视频 f对应运动目标区域的时间评价指标Qbf(t):

Qbf(t)=2Σ(x,y)R1|ζ(x,y,t,2)ζ(x,y,t,3)|Eb(t)+Ef(t),

其中,Eb(t)表示第二幅参考视频b的时间运动特征图像ζ(x,y,t,2)的运动目标区 域的能量,Ef(t)表示融合视频f的时间运动特征图像ζ(x,y,t,3)的运动目标区域的 能量;

7.3)根据第一幅参考视频a和融合视频f对应运动目标区域的时间评价指标 Qaf(t)和第二幅参考视频b和融合视频f对应运动目标区域的时间评价指标Qbf(t), 得到视频融合的时间融合性能评价指标Qt

Qt=Σt=2T(max(Qaf(t),Qbf(t)))T-1,

其中,T表示处理的视频图像帧数;

7.4)根据第一幅参考视频a的每一帧时间运动特征图像ζ(x,y,t,1)和融合视频f 中与之对应帧的时间运动特征图像ζ(x,y,t,3),得到第一幅参考视频a和融合视频f 对应噪声区域的噪声评价指标Naf(t):

Naf(t)=2Σ(x,y)R2|ζ(x,y,t,1)ζ(x,y,t,3)|Da(t)+Df(t),

其中,Da(t)表示第一幅参考视频a的时间运动特征图像ζ(x,y,t,1)的噪声区域的 能量,Df(t)表示融合视频f的时间运动特征图像ζ(x,y,t,3)的噪声区域的能量;

7.5)根据第二幅参考视频b的每一帧时间运动特征图像ζ(x,y,t,2)和融合视频f 中与之对应帧的时间运动特征图像ζ(x,y,t,3),得到第二幅参考视频b和融合视频f 对应噪声区域的噪声评价指标Nbf(t):

Nbf(t)=2Σ(x,y)R2|ζ(x,y,t,2)ζ(x,y,t,3)|Db(t)+Df(t),

其中,Db(t)表示第二幅参考视频b的时间运动特征图像ζ(x,y,t,2)的噪声区域的 能量,Df(t)表示融合视频f的时间运动特征图像ζ(x,y,t,3)的噪声区域的能量;

7.6)根据第一幅参考视频a和融合视频f对应噪声区域的噪声评价指标Naf(t)和 第二幅参考视频b和融合视频f对应噪声区域的噪声评价指标Nbf(t),得到视频融合 的噪声融合性能评价指标Qn

Qn=1-Σt=2T(max(Naf(t),Nbf(t)))T-1,

其中,T表示处理的视频图像帧数;

(8)将空间几何特征背景的融合性能评价指标Qs与时间融合性能评价指标Qt进 行幂指数相乘,得到视频融合的时空融合性能评价指标Qst

(9)将视频融合的时空融合性能评价指标Qst与视频融合的噪声融合性能评价指 标Qn进行幂指数相乘,得到视频融合的整体融合性能评价指标Qnst

本发明具有如下效果:

1)本发明由于使用高阶奇异值分解,有效地将视频的空间几何特征和时间运动特 征提取出来,且对这两种特征图像的融合性能分别应用不同的评价指标进行评价,有 效地提高了视频的时空信息提取性能评价结果。

2)本发明由于特别地对噪声区域进行了评价,且在全局评价指标中加入了对噪 声的评价,从而能够对含噪声视频图像的融合性能进行有效评价。

附图说明

图1为本发明的流程图;

图2为本发明使用的第一组含人为噪声的红外与可见光视频图像及其在各种融 合算法下的融合视频图像;

图3为本发明使用的第二组真实世界中含噪声的红外与可见光视频图像及其在 各种融合算法下的融合视频图像。

具体实施方式

下面结合附图对本发明做进一步的描述。

参照图1,本发明的实现步骤如下:

步骤1,输入参考视频和融合视频。

分别输入两幅参考视频和一幅融合视频,即第一幅参考视频a、第二幅参考视频 b以及融合视频f,该第一幅参考视频a和第二幅参考视频b都是直接从图像库中获 得的已经经过空间和时间配准的视频;该融合视频f是第一幅参考视频a和第二幅参 考视频b利用融合方法得到的融合视频;这三幅视频的大小相同,均含有T帧图像, 每帧图像的大小都为M×N,M和N可以取任意整数值。

步骤2,用输入的参考视频和融合视频构成一个四阶张量。

用输入的第一幅参考视频a、第二幅参考视频b以及融合视频f,构成一个四阶 张量υ(x,y,t,n),其表示式如下:

υ(x,y,t,n)=a(x,y,t),n=1b(x,y,t),n=2f(x,y,t),n=3,

其中(x,y)表示空间坐标,t表示时间坐标,n表示四阶张量第四维坐标,当n=1 时,υ(x,y,t,n)=a(x,y,t),当n=2时,υ(x,y,t,n)=b(x,y,t),当n=3时, υ(x,y,t,n)=f(x,y,t)。

步骤3,对上述四阶张量进行高阶奇异值分解,并将分解得到的核心张量以及正 交矩阵进行乘积运算,得到特征图像。

3.1)对四阶张量υ(x,y,t,n)进行高阶奇异值分解,得到核心张量δ、x方向上的 正交矩阵Q、y方向上的正交矩阵I、t方向上的正交矩阵G和n方向上的正交矩阵 W,即:

υ(x,y,t,n)=δ×1234W,

其中,核心张量δ大小为M×N×T×3,正交矩阵Q大小为M×M,正交矩阵I大 小为N×N,正交矩阵G大小为T×T,正交矩阵W大小为3×3;

3.2)将核心张量δ、方向x上的正交矩阵Q、方向y上的正交矩阵I和方向n上 的正交矩阵W进行乘积运算,得到特征图像ζ(x,y,t,n):

ζ(x,y,t,n)=δ×124W,

其中(x,y)表示空间坐标,t表示时间坐标,n表示四阶张量第四维坐标。

步骤4,对特征图像ζ(x,y,t,n)分类。

对特征图像ζ(x,y,t,n)进行分类是根据时间坐标t和四阶张量第四维坐标n的取 值,分为以下几种情况:

当t=1,n=1时,则用特征图像ζ(x,y,t,n)表示第一幅参考视频a的空间几何特 征背景图像ζ(x,y,1,1);

当t≠1,n=1时,则用特征图像ζ(x,y,t,n)表示第一幅参考视频a的时间运动特 征图像ζ(x,y,t,1);

当t=1,n=2时,则用特征图像ζ(x,y,t,n)表示第二幅参考视频b的空间几何特 征背景图像ζ(x,y,1,2);

当t≠1,n=2时,则用特征图像ζ(x,y,t,n)表示第二幅参考视频b的时间运动特 征图像ζ(x,y,t,2);

当t=1,n=3时,则用特征图像ζ(x,y,t,n)表示融合视频f的空间几何特征背景 图像ζ(x,y,1,3);

当t≠1,n=3时,则用特征图像ζ(x,y,t,n)表示融合视频f的时间运动特征图像 ζ(x,y,t,3)。

步骤5,评价空间几何特征背景的融合性能。

评价空间几何特征背景的融合性能是根据第一幅参考视频a的空间几何特征背 景图像ζ(x,y,1,1)、第二幅参考视频b的空间几何特征背景图像ζ(x,y,1,2)和融合视频 f的空间几何特征背景图像ζ(x,y,1,3),利用基于结构相似度的评价指标Qs进行,其 评价步骤如下:

5.1)在以当前空间位置(x,y)为中心、大小为8×8的局部区域内,分别计算第一 幅参考视频a的空间几何特征背景图像ζ(x,y,1,1)和第二幅参考视频b的空间几何特 征背景图像ζ(x,y,1,2)的结构相似度SSIM(a,b/w),计算第一幅参考视频a的空间几 何特征背景图像ζ(x,y,1,1)和融合视频f的空间几何特征背景图像ζ(x,y,1,3)的结构相 似度SSIM(a,f/w),计算第二幅参考视频b的空间几何特征背景图像ζ(x,y,1,2)和融 合视频f的空间几何特征背景图像ζ(x,y,1,3)的结构相似度SSIM(b,f/w):

SSIM(a,f/w)=2h(a/w)h(b/w)h2(a/w)+h2(b/w)·2s(a,b/w)s2(a/w)+s2(b/w)

SSIM(a,f/w)=2h(a/w)h(f/w)h2(a/w)+h2(f/w)·2s(a,f/w)s2(a/w)+s2(f/w),

SSIM(b,f/w)=2h(b/w)h(f/w)h2(b/w)+h2(f/w)·2s(b,f/w)s2(b/w)+s2(f/w),

其中,h(a/w)和s(a/w)分别表示第一幅参考视频a的空间几何特征背景图像 ζ(x,y,1,1)在局部区域内的灰度平均值和方差;h(b/w)和s(b/w)分别表示第二幅参考 视频b的空间几何特征背景图像ζ(x,y,1,2)在局部区域内的灰度平均值和方差; h(f/w)和s(f/w)分别表示融合视频f的空间几何特征背景图像ζ(x,y,1,3)在局部 区域内的灰度平均值和方差;s(a,b/w)表示第一幅参考视频a的空间几何特征背景图 像ζ(x,y,1,1)与第二幅参考视频b的空间几何特征背景图像ζ(x,y,1,2)在局部区域内 的灰度协方差,s(a,f/w)表示第一幅参考视频a的空间几何特征背景图像ζ(x,y,1,1) 与融合视频f的空间几何特征背景图像ζ(x,y,1,3)在局部区域内的灰度协方差, s(b,f/w)表示第二幅参考视频b的空间几何特征背景图像ζ(x,y,1,2)与融合视频f 的空间几何特征背景图像ζ(x,y,1,3)在局部区域内的灰度协方差,w表示大小为8×8 的滑动窗;

5.2)当所述SSIM(a,b/w)≥0.75时,采用SSIM(a,f/w)和SSIM(b,f/w)的加权平 均作为局部融合性能评价指标;当SSIM(a,b/w)<0.75时,采用所述SSIM(a,f/w)和 所述SSIM(b,f/w)中较大的那个作为空间几何特征背景图像的局部融合性能评价指 标,即:

Q(a,b,f/w)=λ(w)SSIM(a,f/w)+(1-λ(w))SSIM(b,f/w)SSIM(a,b/w)0.75max(SSIM(a,f/w),SSIM(b,f/w)),SSIM(a,b/w)<0.75,

其中,λ(w)=s(a/w)s(a/w)+s(b/w)表示局部加权系数;

5.3)根据空间几何特征背景图像的局部融合性能评价指标,得到其整体融合性 能评价指标:

Qs=1|W|ΣwWQ(a,b,f/w),

其中,W表示所有滑动窗口的个数。

步骤6,对参考视频进行区域划分。

本步骤是通过阈值化法将第一幅参考视频a的时间运动特征图像ζ(x,y,t,1)和第 二幅参考视频b的时间运动特征图像ζ(x,y,t,2)均划分成运动目标区域R1和噪声区 域R2,其划分步骤如下:

6.1)定义第一幅参考视频a的每一帧时间运动特征图像ζ(x,y,t,1)的自适应阈值 τa(t)和第二幅参考视频b的每一帧时间运动特征图像ζ(x,y,t,2)的自适应阈值τb(t):

τa(t)=medianx,y(|ζ(x,y,t,1)|)γ

τb(t)=medianx,y(|ζ(x,y,t,2)|)γ,

其中,γ表示控制噪声区域在每一帧时间运动特征图像中的比例,γ=0.3,(x,y) 表示空间坐标,t表示时间坐标;

6.2)将第一幅参考视频a的每一帧时间运动特征图像ζ(x,y,t,1)像素值的绝对值 与自适应阈值τa(t)比较,得到第一幅参考视频a的时间运动压缩特征图像

6.3)将第二幅参考视频b的每一帧时间运动特征图像ζ(x,y,t,2)像素值的绝对 值与自适应阈值τb(t)比较,得到视频b的时间运动压缩特征图像

6.4)当第一幅参考视频a的每一帧时间运动压缩特征图像和第二幅参 考视频b中与之相同帧的时间运动压缩特征图像的对应空间位置(x,y)处 的像素值都为零时,则定义此空间位置(x,y)属于噪声区域R2,否则,属于运动目标 区域R1

步骤7,对运动目标区域R1和噪声区域R2的融合性能进行评价。

7.1)根据第一幅参考视频a的每一帧时间运动特征图像ζ(x,y,t,1)和融合视频 f中与之对应帧的时间运动特征图像ζ(x,y,t,3),得到第一幅参考视频a和融合视频 f对应运动目标区域的时间评价指标Qaf(t):

Qaf(t)=2Σ(x,y)R1|ζ(x,y,t,1)ζ(x,y,t,3)|Ea(t)+Ef(t),

其中,Ea(t)表示第一幅参考视频a的时间运动特征图像ζ(x,y,t,1)的运动目标区 域的能量,Ef(t)表示融合视频f的时间运动特征图像ζ(x,y,t,3)的运动目标区域的 能量;

7.2)根据第二幅参考视频b的每一帧时间运动特征图像ζ(x,y,t,2)和融合视频 f中与之对应帧的时间运动特征图像ζ(x,y,t,3),得到第二幅参考视频b和融合视频 f对应运动目标区域的时间评价指标Qbf(t):

Qbf(t)=2Σ(x,y)R1|ζ(x,y,t,2)ζ(x,y,t,3)|Eb(t)+Ef(t),

其中,Eb(t)表示第二幅参考视频b的时间运动特征图像ζ(x,y,t,2)的运动目标区 域的能量,Ef(t)表示融合视频f的时间运动特征图像ζ(x,y,t,3)的运动目标区域的 能量;

7.3)根据第一幅参考视频a和融合视频f对应运动目标区域的时间评价指标 Qaf(t)和第二幅参考视频b和融合视频f对应运动目标区域的时间评价指标Qbf(t), 得到视频融合的时间融合性能评价指标Qt

Qt=Σt=2T(max(Qaf(t),Qbf(t)))T-1,

其中,T表示处理的视频图像帧数;

7.4)根据第一幅参考视频a的每一帧时间运动特征图像ζ(x,y,t,1)和融合视频f 中与之对应帧的时间运动特征图像ζ(x,y,t,3),得到第一幅参考视频a和融合视频f 对应噪声区域的噪声评价指标Naf(t):

Naf(t)=2Σ(x,y)R2|ζ(x,y,t,1)ζ(x,y,t,3)|Da(t)+Df(t),

其中,Da(t)表示第一幅参考视频a的时间运动特征图像ζ(x,y,t,1)的噪声区域的 能量,Df(t)表示融合视频f的时间运动特征图像ζ(x,y,t,3)的噪声区域的能量;

7.5)根据第二幅参考视频b的每一帧时间运动特征图像ζ(x,y,t,2)和融合视频f 中与之对应帧的时间运动特征图像ζ(x,y,t,3),得到第二幅参考视频b和融合视频f 对应噪声区域的噪声评价指标Nbf(t):

Nbf(t)=2Σ(x,y)R2|ζ(x,y,t,2)ζ(x,y,t,3)|Db(t)+Df(t),

其中,Db(t)表示第二幅参考视频b的时间运动特征图像ζ(x,y,t,2)的噪声区域的 能量,Df(t)表示融合视频f的时间运动特征图像ζ(x,y,t,3)的噪声区域的能量;

7.6)根据第一幅参考视频a和融合视频f对应噪声区域的噪声评价指标Naf(t) 和第二幅参考视频b和融合视频f对应噪声区域的噪声评价指标Nbf(t),得到视频融 合的噪声融合性能评价指标Qn

Qn=1-Σt=2T(max(Naf(t),Nbf(t)))T-1,

其中,T表示处理的视频图像帧数。

步骤8,对视频融合的时空融合性能进行评价。

根据步骤(5.3)中所述的空间几何特征背景图像的整体融合性能评价指标Qs和 步骤(7.3)中所述的视频融合的时间融合性能评价指标Qt,得到视频融合的时空融 合性能评价指标Qst:

Qst=QsαQt(1-α),

其中,α是权值系数,其值通过经验获得,本实例取值为0.76。

步骤9,对视频融合的整体融合性能进行评价。

根据步骤(7.6)中所述的视频融合的噪声融合性能评价指标Qn和步骤(8)中 所述的视频融合的时空融合性能评价指标Qst,得到视频融合的整体融合性能评价指 标Qnst

Qnst=QstβQn(1-β),

其中,β是权值系数,其值通过经验获得,本实例取值0.8。

本发明的效果可通过以下仿真进一步说明:

1.仿真条件:所有仿真实验都是针对含噪声的红外与可见光视频融合进行的, 且均在Windows7操作系统下采用Matlab R2010a软件实现。

2.仿真内容:

仿真1:对申请号:CN201310241978.2,名称为基于高阶奇异值分解的多传感器 视频融合方法中提到的ST-HOSVD方法进行评价。

ST-HOSVD方法采用一种基于控制噪声区域比γ的阈值化方法进行噪声抑制,这 里控制噪声区域比例γ的取值分别为正无穷,0.7,0.6,0.5,0.4,0.3,0.2和0.1。为 了简单起见,将与之相对应的融合方法分别命名为HOSVD1,HOSVD2,HOSVD3, HOSVD4,HOSVD5,HOSVD6,HOSVD7和HOSVD8。

图2为一幅红外输入视频、一幅可见光输入视频和采用ST-HOSVD方法得到的 融合视频,其中:

图2(a)为干净的红外输入视频中的某一帧图像,

图2(b)为干净的可见光输入视频中与图2(a)相同帧的图像,

图2(c)为采用高阶奇异值分解的多传感器视频融合方法中提到的ST-HOSVD方 法在噪声区域比例取γ=+∞时,对含人为噪声的红外输入视频与含人为噪声的可见 光输入视频融合后,得到的融合视频中与图2(a)相同帧的图像,

图2(d)为采用高阶奇异值分解的多传感器视频融合方法中提到的ST-HOSVD方 法在噪声区域比例取γ=0.7时,对含人为噪声的红外输入视频与含人为噪声的可见光 输入视频融合后,得到的融合视频中与图2(a)相同帧的图像,

图2(e)为采用高阶奇异值分解的多传感器视频融合方法中提到的ST-HOSVD方 法在噪声区域比例取γ=0.6时,对含人为噪声的红外输入视频与含人为噪声的可 见光输入视频融合后,得到的融合视频中与图2(a)相同帧的图像,

图2(f)为采用高阶奇异值分解的多传感器视频融合方法中提到的ST-HOSVD方 法在噪声区域比例取γ=0.5时,对含人为噪声的红外输入视频与含人为噪声的可见光 输入视频融合后,得到的融合视频中与图2(a)相同帧的图像,

图2(g)为采用高阶奇异值分解的多传感器视频融合方法中提到的ST-HOSVD方 法在噪声区域比例取γ=0.4时,对含人为噪声的红外输入视频与含人为噪声的可见光 输入视频融合后,得到的融合视频中与图2(a)相同帧的图像,

图2(h)为采用高阶奇异值分解的多传感器视频融合方法中提到的ST-HOSVD方 法在噪声区域比例取γ=0.3时,对含人为噪声的红外输入视频与含人为噪声的可见光 输入视频融合后,得到的融合视频中与图2(a)相同帧的图像,

图2(i)为采用高阶奇异值分解的多传感器视频融合方法中提到的ST-HOSVD方 法在噪声区域比例取γ=0.2时,对含人为噪声的红外输入视频与含人为噪声的可见 光输入视频融合后,得到的融合视频中与图2(a)相同帧的图像,

图2(j)为采用高阶奇异值分解的多传感器视频融合方法中提到的ST-HOSVD方 法在噪声区域比例取γ=0.1时,对含人为噪声的红外输入视频与含人为噪声的可见光 输入视频融合后,得到的融合视频中与图2(a)相同帧的图像。

从图2可以看出,随着噪声区域比例γ取值变得越来越小,融合视频图像质量逐 渐由差变好再逐渐变差,特别是图2(g),即噪声区域比例γ取0.4时的视觉效果最 好,楼房及地面结构清晰完整,运动目标清晰,噪声小;为了简单起见,将图2所示 图像命名为视频组1。

对图2所示采用不同噪声区域比例γ的融合方法ST-HOSVD得到的融合视频的 融合性能,采用现有的时空梯度指标DQ、全局视频融合质量指标QST以及本发明所 提出的时空融合性能评价指标Qst这三个指标进行客观评价,其评价结果如表1所示:

表1参考视频干净,融合视频含噪声情况下的融合性能评价结果

从表1的数据可知,针对进行了噪声抑制的基于高阶奇异值分解的融合方法 ST-HOSVD,当噪声区域比例γ的取值变的越来越小的时候,所提出的时空融合性能 评价指标Qst的取值呈先升后降的变化趋势,特别是在噪声区域比例γ为0.4时取得最 大值。这不仅与时空梯度指标DQ和全局视频融合质量指标QST的评价结果相似,而 且与人眼主观评价结果一致,因此,本文所提出的时空融合性能评价指标Qst能够对 视频融合算法的时空融合性能进行准确评价。

对图2(a)和图2(b)所示的干净的输入视频加入均值为零,方差为0.001的高斯噪 声后,得到含噪声的输入视频,将含噪声的输入视频作为参考视频,采用现有的时空 梯度指标DQ、全局视频融合质量指标QST,以及本发明所提出的时空融合性能评价 指标Qst、整体融合性能评价指标Qnst这四个指标,对图2所示的这些采用不同噪声区 域比例γ的融合视频性能进行客观评价,其评价结果如表2所示:

表2参考视频和融合视频均含噪声的融合性能评价结果

从表2的数据可知,对于进行了噪声抑制的基于高阶奇异值分解的融合方法 ST-HOSVD,当噪声区域比例γ的取值变得越来越小的时候,本发明所提出的整体融 合性能评价指标Qnst的取值呈先升后降的变化趋势,特别是在噪声区域比例γ为0.2 时取得的值最大,这与人眼主观评价结果一致。而时空梯度指标DQ、全局视频融合 质量指标QST和本发明所提出的时空融合性能评价指标Qst由于都没有考虑噪声的影 响,理论上应该呈下降趋势,实验结果亦如此。可见,本发明所提出的整体融合性能 评价指标Qnst能够对含噪声的融合视频的融合性能进行有效评价。特别是时空融合性 能评价指标Qst的取值随着噪声区域比例γ取值的减小下降的非常缓慢,说明该指标对 噪声具有鲁棒性。

仿真2:对文献(Q.Zhang,L.Wang,et al.,"A novel video fusion framework using  surfacelet transform",Optics Communications,Vol.285,No.13-14,2012,pp:3032-3041)中 所提到的基于时空能量的融合方法ST-energy和基于时空运动的融合方法ST-motion 以及基于高阶奇异值分解的多传感器视频融合方法中提到的ST-HOSVD方法进行评 价。

图3为一幅红外输入视频、一幅可见光输入视频和采用ST-energy、ST-motion以及 ST-HOSVD方法得到的融合视频,其中:

图3(a)为含噪声的红外输入视频中的某一帧图像,

图3(b)为含噪声的可见光输入视频中与图3(a)相同帧的图像,

图3(c)为采用ST-energy方法得到的融合视频中与图3(a)相同帧的图像,

图3(d)为采用ST-motion方法得到的融合视频中与图3(a)相同帧的图像,

图3(e)为采用没有进行噪声抑制的ST-HOSVD方法得到的融合视频中与图3(a) 相同帧的图像,

图3(f)为采用进行了噪声抑制的ST-HOSVD方法得到的融合视频中与图3(a)相同 帧的图像,

从图3可以看出,采用进行了噪声抑制的ST-HOSVD方法得到的融合视频图像 质量最好,时空显著特征被很好地从输入视频中提取出来且被很好地保留到融合视频 中,噪声也被很好地抑制掉了,而通过其它融合方法得到的融合视频中噪声明显可见。 为了简单起见,将图3所示视频图像命名为视频组2。

对图3中所示采用融合方法ST-energy、融合方法ST-motion以及融合方法 ST-HOSVD得到的融合视频的融合性能,采用时空梯度指标DQ、全局视频融合质量 指标QST和本发明所提出的时空融合性能评价指标Qst、整体融合性能评价指标Qnst这 四种评价指标进行客观评价,其评价结果如表3所示。

表3真实世界中含噪声的红外与可见光视频图像融合评价结果

从表3数据可知,本发明所提出的整体融合性能评价指标Qnst得出的结果与人眼 主观评价结果是一致的。而时空梯度指标DQ、全局视频融合质量指标QST和本发明 所提出的时空融合性能评价指标Qst得出的结果与人眼主观评价结果是相悖的。可见, 本发明所提出的整体融合性能评价指标Qnst能够对噪声环境下视频融合算法的融合性 能进行准确评价。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号