首页> 中国专利> 一种基于小波变换的立体视频质量客观评价方法

一种基于小波变换的立体视频质量客观评价方法

摘要

本发明公开了一种基于小波变换的立体视频质量客观评价方法,其利用双目亮度信息融合的方式将立体图像中的左视点图像中的像素点的亮度值和右视点图像中的像素点的亮度值进行融合,得到立体图像的双目融合亮度图,通过这种亮度融合方式,在一定程度上解决了立体视频质量评价中立体感知质量评价困难的问题,有效地提高了立体视频客观质量评价的准确性;其在对失真立体视频对应的双目融合亮度图视频中的各帧组的质量进行加权时,充分考虑到人眼视觉特性对于视频中各类信息的敏感程度,利用运动剧烈程度和亮度差异来确定各帧组的权重,因此使得该立体视频质量评价方法更加符合人眼主观感知特点。

著录项

  • 公开/公告号CN104811691A

    专利类型发明专利

  • 公开/公告日2015-07-29

    原文格式PDF

  • 申请/专利权人 宁波大学;

    申请/专利号CN201510164528.7

  • 申请日2015-04-08

  • 分类号H04N17/00(20060101);H04N13/00(20060101);

  • 代理机构宁波奥圣专利代理事务所(普通合伙);

  • 代理人程晓明

  • 地址 315211 浙江省宁波市江北区风华路818号

  • 入库时间 2023-12-18 09:57:47

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2019-08-30

    专利权的转移 IPC(主分类):H04N17/00 登记生效日:20190812 变更前: 变更后: 申请日:20150408

    专利申请权、专利权的转移

  • 2017-07-21

    授权

    授权

  • 2015-08-26

    实质审查的生效 IPC(主分类):H04N17/00 申请日:20150408

    实质审查的生效

  • 2015-07-29

    公开

    公开

说明书

技术领域

本发明涉及一种立体视频质量评价方法,尤其是涉及一种基于小波变换的立体视频质量客观评价方法。

背景技术

随着视频编码技术和显示技术的迅速发展,各类视频系统得到了越来越广泛的应用和关注,并逐渐成为了信息处理领域的研究重点。而立体视频由于其突出的观看感受,更是越来越多的得到了人们的青睐,其相关技术的应用已经大量的融入到当前的社会生活中,例如立体电视、立体电影、裸眼3D等。然而,在立体视频的采集、压缩、编码、传输、显示等过程中会因为一系列不可控制的因素而不可避免地引入不同程度和类型的失真。因此,如何准确有效地度量视频质量对于各类视频系统的发展起到了重要的推动作用。立体视频质量评价可分为主观评价和客观评价两大类,而当前立体视频质量评价领域的关键在于如何建立一种准确有效的客观评价模型来评价立体视频客观质量。目前,大多数立体视频质量客观评价方法只是简单的将平面视频质量评价方法分别用于左视点质量和右视点质量的评价,这类方法没有很好地处理视点间的关系,也并没有考虑到立体视频中深度感知对于立体视频质量的影响,因此准确性较差。有部分方法虽然考虑到了双目之间的关系,但左视点与右视点之间的加权处理不合理,难以准确地描述人眼对于立体视频的感知特性,且目前大部分对立体视频质量评价的时域加权处理只是简单的平均加权,而事实上,人眼对立体视频的时域感知并非只是简单的平均加权。因此,现有的立体视频质量客观评价方法并不能准确地反映人眼感知特性,客观评价结果不够准确。

发明内容

本发明所要解决的技术问题是提供一种基于小波变换的立体视频质量客观评价方法,其能够有效地提高客观评价结果与主观感知之间的相关性。

本发明解决上述技术问题所采用的技术方案为:一种基于小波变换的立体视频质量客观评价方法,其特征在于包括以下步骤:

①令Vorg表示原始的无失真的立体视频,令Vdis表示待评价的失真的立体视频;

②计算Vorg中的每帧立体图像中的每个像素点的双目融合亮度,将Vorg中的第f帧立体图像中坐标位置为(u,v)的像素点的双目融合亮度记为>Borgf(u,v)=(IorgR,f(u,v))2+(IorgL,f(u,v))2+2(IorgR,f(u,v)×IorgL,f(u,v)×cos)×λ;>然后根据Vorg中的每帧立体图像中的所有像素点各自的双目融合亮度,得到Vorg中的每帧立体图像的双目融合亮度图,将Vorg中的第f帧立体图像的双目融合亮度图记为中坐标位置为(u,v)的像素点的像素值为再根据Vorg中的所有立体图像各自的双目融合亮度图,得到Vorg对应的双目融合亮度图视频,记为Borg,Borg中的第f帧双目融合亮度图为

并,计算Vdis中的每帧立体图像中的每个像素点的双目融合亮度,将Vdis中的第f帧立体图像中坐标位置为(u,v)的像素点的双目融合亮度记为>Bdisf(u,v)=(IdisR,f(u,v))2+(IdisL,f(u,v))2+2(IdisR,f(u,v)×IdisL,f(u,v)×cos)×λ;>然后根据Vdis中的每帧立体图像中的所有像素点各自的双目融合亮度,得到Vdis中的每帧立体图像的双目融合亮度图,将Vdis中的第f帧立体图像的双目融合亮度图记为中坐标位置为(u,v)的像素点的像素值为再根据Vdis中的所有立体图像各自的双目融合亮度图,得到Vdis对应的双目融合亮度图视频,记为Bdis,Bdis中的第f帧双目融合亮度图为

其中,1≤f≤Nf,f的初始值为1,Nf表示Vorg和Vdis中各自包含的立体图像的总帧数,1≤u≤U,1≤v≤V,U表示Vorg和Vdis中各自包含的立体图像的宽度,V表示Vorg和Vdis中各自包含的立体图像的高度,表示Vorg中的第f帧立体图像的右视点图像中坐标位置为(u,v)的像素点的亮度值,表示Vorg中的第f帧立体图像的左视点图像中坐标位置为(u,v)的像素点的亮度值,表示Vdis中的第f帧立体图像的右视点图像中坐标位置为(u,v)的像素点的亮度值,表示Vdis中的第f帧立体图像的左视点图像中坐标位置为(u,v)的像素点的亮度值,表示融合角度,λ表示显示器的亮度参数;

③以2n帧双目融合亮度图为一个帧组,将Borg和Bdis分别分为nGoF个帧组,将Borg中的第i个帧组记为将Bdis中的第i个帧组记为其中,n取区间[3,5]内的整数,符号“”为向下取整符号,1≤i≤nGoF

④对Borg中的每个帧组进行一级三维小波变换,得到Borg中的每个帧组对应的8组子带序列,其中,8组子带序列包括4组时域高频子带序列和4组时域低频子带序列,每组子带序列包含个小波系数矩阵;

同样,对Bdis中的每个帧组进行一级三维小波变换,得到Bdis中的每个帧组对应的8组子带序列,其中,8组子带序列包括4组时域高频子带序列和4组时域低频子带序列,每组子带序列包含个小波系数矩阵;

⑤计算Bdis中的每个帧组对应的其中2组子带序列各自的质量,将对应的第j组子带序列的质量记为Qi,j其中,j=1,5,1≤k≤K,K表示Borg中的每个帧组对应的每组子带序列和Bdis中的每个帧组对应的每组子带序列中各自包含的小波系数矩阵的总个数,表示对应的第j组子带序列中的第k个小波系数矩阵,表示对应的第j组子带序列中的第k个小波系数矩阵,SSIM()为结构相似度计算函数;

⑥根据Bdis中的每个帧组对应的其中2组子带序列各自的质量,计算Bdis中的每个帧组的质量,将的质量记为>QGoFi=wG×Qi,1+(1-wG)×Qi,5,>其中,wG为Qi,1的权值,Qi,1表示对应的第1组子带序列的质量,Qi,5表示对应的第5组子带序列的质量;

⑦根据Bdis中的每个帧组的质量,计算Vdis的客观评价质量,记为Qv>Qv=Σi=1nGoFwi×QGoFiΣi=1nGoFwi,>其中,wi的权值。

所述的步骤⑦中的wi的获取过程为:

⑦-1、以中除第1帧双目融合亮度图外的每帧双目融合亮度图的前一帧双目融合亮度图为参考,计算中除第1帧双目融合亮度图外的每帧双目融合亮度图中的每个像素点的运动矢量;

⑦-2、根据中除第1帧双目融合亮度图外的每帧双目融合亮度图中的每个像素点的运动矢量,计算中除第1帧双目融合亮度图外的每帧双目融合亮度图的运动剧烈程度,将中的第f'帧双目融合亮度图的运动剧烈程度记为MAf'>MAf=1U×VΣs=1UΣt=1V((mvx(s,t))2+(mvy(s,t))2),>其中,2≤f'≤2n,f'的初始值为2,1≤s≤U,1≤t≤V,mvx(s,t)表示中的第f'帧双目融合亮度图中坐标位置为(s,t)的像素点的运动矢量在水平方向上的值,mvy(s,t)表示中的第f'帧双目融合亮度图中坐标位置为(s,t)的像素点的运动矢量在垂直方向上的值;

⑦-3、计算的运动剧烈程度,记为MAavgi

⑦-4、计算中的每帧双目融合亮度图的背景亮度图,将中的第f”帧双目融合亮度图的背景亮度图记为中坐标位置为(p,q)的像素点的像素值记为>BLdisi,f(p,q)=132Σbi=-22Σbj=-22Idisi,f(p+bi,q+bi)×BO(bi+3,bj+3),>其中,1≤f”≤2n,3≤p≤U-2,3≤q≤V-2,-2≤bi≤2,-2≤bj≤2,表示中的第f”帧双目融合亮度图中坐标位置为(p+bi,q+bi)的像素点的像素值,BO(bi+3,bj+3)表示5×5的背景亮度算子中下标为(bi+3,bj+3)处的元素;

⑦-5、计算中除第1帧双目融合亮度图外的每帧双目融合亮度图与前一帧双目融合亮度图的亮度差异图,将中的第f'帧双目融合亮度图与中的第f'-1帧双目融合亮度图的亮度差异图记为中坐标位置为(p,q)的像素点的像素值记为>LDdisi,f(p,q),LDdisi,f(p,q)=(Idisi,f(p,q)-Idisi,f-1(p,q)+BLdisi,f(p,q)-BLdisi,f-1(p,q))/2,>其中,2≤f'≤2n,3≤p≤U-2,3≤q≤V-2,表示中的第f'帧双目融合亮度图中坐标位置为(p,q)的像素点的像素值,表示中的第f'-1帧双目融合亮度图中坐标位置为(p,q)的像素点的像素值,表示中的第f'帧双目融合亮度图的背景亮度图中坐标位置为(p,q)的像素点的像素值,表示中的第f'-1帧双目融合亮度图的背景亮度图中坐标位置为(p,q)的像素点的像素值;

⑦-6、计算中除第1帧双目融合亮度图外的每帧双目融合亮度图与前一帧双目融合亮度图的亮度差异图中的所有像素点的像素值的均值,将中的所有像素点的像素值的均值记为LDi,f';然后计算的亮度差异值,记为LDavgi>LDavgi=Σf=22nLDi,f2n-1;>

⑦-7、将Bdis中所有帧组各自的运动剧烈程度按序组成Bdis的运动剧烈程度向量,记为VMAavg>VMAavg=[MAavg1,MAavg2,...,MAavgi,...,MAavgnGoF],>并将Bdis中所有帧组各自的亮度差异值按序组成Bdis的亮度差异向量,记为VLDavg>VLDavg=[LDavg1,LDavg2,...,LDavgi,...,LDavgnGoF],>其中,MAavg1、MAavg2对应表示Bdis中的第1个帧组、第2个帧组和第nGoF个帧组的运动剧烈程度,LDavg1、LDavg2对应表示Bdis中的第1个帧组、第2个帧组和第nGoF个帧组的亮度差异值;

⑦-8、对MAavgi进行归一化计算,得到的归一化后的运动剧烈程度,记为并对LDavgi进行归一化计算,得到的归一化后的亮度差异值,记为其中,max()为取最大值函数,min()为取最小值函数;

⑦-9、根据计算的权值wi>wi=(1-vMAavgnorm,i)×vLDavgnorm,i.>

所述的步骤⑥中取wG=0.8。

与现有技术相比,本发明的优点在于:

1)本发明方法利用双目亮度信息融合的方式将立体图像中的左视点图像中的像素点的亮度值和右视点图像中的像素点的亮度值进行融合,得到立体图像的双目融合亮度图,通过这种亮度融合方式,在一定程度上解决了立体视频质量评价中立体感知质量评价困难的问题,有效地提高了立体视频客观质量评价的准确性。

2)本发明方法将三维小波变换应用于立体视频质量评价之中,对双目融合亮度图视频中的各帧组进行一级三维小波变换,利用小波域的分解完成对于视频时域信息的描述,在一定程度上解决了视频时域信息描述困难的问题,有效地提高了立体视频客观质量评价的准确性。

3)本发明方法在对失真立体视频对应的双目融合亮度图视频中的各帧组的质量进行加权时,充分考虑到人眼视觉特性对于视频中各类信息的敏感程度,利用运动剧烈程度和亮度差异来确定各帧组的权重,因此使得该立体视频质量评价方法更加符合人眼主观感知特点。

附图说明

图1为本发明方法的总体实现框图。

具体实施方式

以下结合附图实施例对本发明作进一步详细描述。

本发明提出的一种基于小波变换的立体视频质量客观评价方法,其总体实现框图如图1所示,其包括以下步骤:

①令Vorg表示原始的无失真的立体视频,令Vdis表示待评价的失真的立体视频。

②计算Vorg中的每帧立体图像中的每个像素点的双目融合亮度,将Vorg中的第f帧立体图像中坐标位置为(u,v)的像素点的双目融合亮度记为>Borgf(u,v)=(IorgR,f(u,v))2+(IorgL,f(u,v))2+2(IorgR,f(u,v)×IorgL,f(u,v)×cos)×λ;>然后根据Vorg中的每帧立体图像中的所有像素点各自的双目融合亮度,得到Vorg中的每帧立体图像的双目融合亮度图,将Vorg中的第f帧立体图像的双目融合亮度图记为中坐标位置为(u,v)的像素点的像素值为再根据Vorg中的所有立体图像各自的双目融合亮度图,得到Vorg对应的双目融合亮度图视频,记为Borg,Borg中的第f帧双目融合亮度图为

并,计算Vdis中的每帧立体图像中的每个像素点的双目融合亮度,将Vdis中的第f帧立体图像中坐标位置为(u,v)的像素点的双目融合亮度记为>Bdisf(u,v)=(IdisR,f(u,v))2+(IdisL,f(u,v))2+2(IdisR,f(u,v)×IdisL,f(u,v)×cos)×λ;>然后根据Vdis中的每帧立体图像中的所有像素点各自的双目融合亮度,得到Vdis中的每帧立体图像的双目融合亮度图,将Vdis中的第f帧立体图像的双目融合亮度图记为中坐标位置为(u,v)的像素点的像素值为再根据Vdis中的所有立体图像各自的双目融合亮度图,得到Vdis对应的双目融合亮度图视频,记为Bdis,Bdis中的第f帧双目融合亮度图为

其中,1≤f≤Nf,f的初始值为1,Nf表示Vorg和Vdis中各自包含的立体图像的总帧数,1≤u≤U,1≤v≤V,U表示Vorg和Vdis中各自包含的立体图像的宽度,V表示Vorg和Vdis中各自包含的立体图像的高度,表示Vorg中的第f帧立体图像的右视点图像中坐标位置为(u,v)的像素点的亮度值,表示Vorg中的第f帧立体图像的左视点图像中坐标位置为(u,v)的像素点的亮度值,表示Vdis中的第f帧立体图像的右视点图像中坐标位置为(u,v)的像素点的亮度值,表示Vdis中的第f帧立体图像的左视点图像中坐标位置为(u,v)的像素点的亮度值,表示融合角度,在本实施例中取λ表示显示器的亮度参数,在本实施例中取λ=1。

③以2n帧双目融合亮度图为一个帧组,将Borg和Bdis分别分为nGoF个帧组,将Borg中的第i个帧组记为将Bdis中的第i个帧组记为其中,n取区间[3,5]内的整数,在本实施例中取n=4,即本实施例以16帧双目融合亮度图为一个帧组,在实际实施时,如果Borg和Bdis中各自包含的双目融合亮度图的帧数不是2n的正整数倍时,则按序分得若干个帧组后,对多余的图像不作处理,符号“”为向下取整符号,1≤i≤nGoF

④对Borg中的每个帧组进行一级三维小波变换,得到Borg中的每个帧组对应的8组子带序列,其中,8组子带序列包括4组时域高频子带序列和4组时域低频子带序列,每组子带序列包含个小波系数矩阵。在此,Borg中的每个帧组对应的4组时域高频子带序列分别为原始时域高频近似序列HLLorg、原始时域高频水平方向细节序列HLHorg、原始时域高频垂直方向细节序列HHLorg、原始时域高频对角线方向细节序列HHHorg;Borg中的每个帧组对应的4组时域低频子带序列分别为原始时域低频近似序列LLLorg、原始时域低频水平方向细节序列LLHorg、原始时域低频垂直方向细节序列LHLorg、原始时域低频对角线方向细节序列LHHorg

同样,对Bdis中的每个帧组进行一级三维小波变换,得到Bdis中的每个帧组对应的8组子带序列,其中,8组子带序列包括4组时域高频子带序列和4组时域低频子带序列,每组子带序列包含个小波系数矩阵。在此,Bdis中的每个帧组对应的4组时域高频子带序列分别为失真时域高频近似序列HLLdis、失真时域高频水平方向细节序列HLHdis、失真时域高频垂直方向细节序列HHLdis、失真时域高频对角线方向细节序列HHHdis;Borg中的每个帧组对应的4组时域低频子带序列分别为失真时域低频近似序列LLLdis、失真时域低频水平方向细节序列LLHdis、失真时域低频垂直方向细节序列LHLdis、失真时域低频对角线方向细节序列LHHdis

本发明方法利用三维小波变换对双目融合亮度图视频进行时域分解,从频率成分的角度描述视频时域信息,在小波域中完成对时域信息的处理,从而在一定程度上解决了视频质量评价中时域质量评价困难的问题,提高了评价方法的准确性。

⑤计算Bdis中的每个帧组对应的其中2组子带序列各自的质量,将对应的第j组子带序列的质量记为Qi,j其中,j=1,5,j=1时对应的第1组子带序列为对应的第1组时域高频子带序列,j=5时对应的第5组子带序列为对应的第1组时域低频子带序列,1≤k≤K,K表示Borg中的每个帧组对应的每组子带序列和Bdis中的每个帧组对应的每组子带序列中各自包含的小波系数矩阵的总个数,表示对应的第j组子带序列中的第k个小波系数矩阵,表示对应的第j组子带序列中的第k个小波系数矩阵,SSIM()为结构相似度计算函数,>SSIM(VIorgi,j,k,VIdisi,j,k)=(2μorgμdis+c1)(2σorg-dis+c2)(μorg2+μdis2+c1)(σorg2+σdis2+c2),>其中,μorg表示中的所有元素的值的均值,μdis表示中的所有元素的值的均值,σorg表示的方差,σdis表示的方差,σorg-dis表示之间的协方差,c1和c2均为常数,c1和c2的设置是为了避免分母取值为0,具体操作时可取c1=0.05,c2=0.05。

⑥根据Bdis中的每个帧组对应的其中2组子带序列各自的质量,计算Bdis中的每个帧组的质量,将的质量记为其中,wG为Qi,1的权值,在本实施例中取wG=0.8,Qi,1表示对应的第1组子带序列的质量,亦表示对应的第1组时域高频子带序列的质量,Qi,5表示对应的第5组子带序列的质量,亦表示对应的第1组时域低频子带序列的质量。

⑦根据Bdis中的每个帧组的质量,计算Vdis的客观评价质量,记为Qv其中,wi的权值,在此具体实施例中,wi的获取过程为:

⑦-1、以中除第1帧双目融合亮度图外的每帧双目融合亮度图的前一帧双目融合亮度图为参考,计算中除第1帧双目融合亮度图外的每帧双目融合亮度图中的每个像素点的运动矢量。

⑦-2、根据中除第1帧双目融合亮度图外的每帧双目融合亮度图中的每个像素点的运动矢量,计算中除第1帧双目融合亮度图外的每帧双目融合亮度图的运动剧烈程度,将中的第f'帧双目融合亮度图的运动剧烈程度记为MAf'>MAf=1U×VΣs=1UΣt=1V((mvx(s,t))2+(mvy(s,t))2),>其中,2≤f'≤2n,f'的初始值为2,1≤s≤U,1≤t≤V,mvx(s,t)表示中的第f'帧双目融合亮度图中坐标位置为(s,t)的像素点的运动矢量在水平方向上的值,mvy(s,t)表示中的第f'帧双目融合亮度图中坐标位置为(s,t)的像素点的运动矢量在垂直方向上的值。

⑦-3、计算的运动剧烈程度,记为MAavgi

⑦-4、计算中的每帧双目融合亮度图的背景亮度图,将中的第f”帧双目融合亮度图的背景亮度图记为中坐标位置为(p,q)的像素点的像素值记为>BLdisi,f(p,q)=132Σbi=-22Σbj=-22Idisi,f(p+bi,q+bi)×BO(bi+3,bj+3),>其中,1≤f”≤2n,3≤p≤U-2,3≤q≤V-2,-2≤bi≤2,-2≤bj≤2,表示中的第f”帧双目融合亮度图中坐标位置为(p+bi,q+bi)的像素点的像素值,BO(bi+3,bj+3)表示5×5的背景亮度算子中下标为(bi+3,bj+3)处的元素,在本实施例中5×5的背景亮度算子为>1111112221120211222111111.>

⑦-5、计算中除第1帧双目融合亮度图外的每帧双目融合亮度图与前一帧双目融合亮度图的亮度差异图,将中的第f'帧双目融合亮度图与中的第f'-1帧双目融合亮度图的亮度差异图记为中坐标位置为(p,q)的像素点的像素值记为>LDdisi,f(p,q),LDdisi,f(p,q)=(Idisi,f(p,q)-Idisi,f-1(p,q)+BLdisi,f(p,q)-BLdisi,f-1(p,q))/2,>其中,2≤f'≤2n,3≤p≤U-2,3≤q≤V-2,表示中的第f'帧双目融合亮度图中坐标位置为(p,q)的像素点的像素值,表示中的第f'-1帧双目融合亮度图中坐标位置为(p,q)的像素点的像素值,表示中的第f'帧双目融合亮度图的背景亮度图中坐标位置为(p,q)的像素点的像素值,表示中的第f'-1帧双目融合亮度图的背景亮度图中坐标位置为(p,q)的像素点的像素值。

⑦-6、计算中除第1帧双目融合亮度图外的每帧双目融合亮度图与前一帧双目融合亮度图的亮度差异图中的所有像素点的像素值的均值,将中的所有像素点的像素值的均值记为LDi,f';然后计算的亮度差异值,记为LDavgi>LDavgi=Σf=22nLDi,f2n-1.>

⑦-7、将Bdis中所有帧组各自的运动剧烈程度按序组成Bdis的运动剧烈程度向量,记为VMAavg>VMAavg=[MAavg1,MAavg2,...,MAavgi,...,MAavgnGoF],>并将Bdis中所有帧组各自的亮度差异值按序组成Bdis的亮度差异向量,记为VLDavg>VLDavg=[LDavg1,LDavg2,...,LDavgi,...,LDavgnGoF],>其中,MAavg1、MAavg2对应表示Bdis中的第1个帧组、第2个帧组和第nGoF个帧组的运动剧烈程度,LDavg1、LDavg2对应表示Bdis中的第1个帧组、第2个帧组和第nGoF个帧组的亮度差异值。

⑦-8、对MAavgi进行归一化计算,得到的归一化后的运动剧烈程度,记为并对LDavgi进行归一化计算,得到的归一化后的亮度差异值,记为其中,max()为取最大值函数,min()为取最小值函数。

⑦-9、根据计算的权值wi>wi=(1-vMAavgnorm,i)×vLDavgnorm,i.>

为说明本发明方法的有效性和可行性,选取法国IRCCyN研究机构提供的NAMA3DS1-CoSpaD1立体视频库(简称“NAMA3D视频数据库”)进行验证试验,以分析本发明方法的客观评价结果与平均主观评分差值(Difference Mean Opinion Score,DMOS)之间的相关性。NAMA3D视频数据库包含10个不同场景的原始高清立体视频,其H.264编码压缩失真包含3种不同的失真程度,共30个失真立体视频;JPEG2000编码压缩失真包含4种不同的失真程度,共40个失真立体视频。对上述70个失真立体视频按本发明方法的步骤①至步骤⑦的过程,采用相同的方式计算得到每个失真立体视频相对于对应的无失真的立体视频的客观评价质量,然后将每个失真立体视频的客观评价质量与平均主观评分差值DMOS进行四参数Logistic函数非线性拟合,最后得到客观评价结果与主观感知之间的性能指标值。这里,利用评估视频质量评价方法的3个常用客观参量作为评价指标,即线性相关系数(Correlation coefficient,CC)、Spearman等级相关系数(Spearman Rank Order Correlation coefficient,SROCC)和均方根误差(RootedMean Squared Error,RMSE)。CC和SROCC的取值范围是[0,1],其值越接近1,表明客观评价方法的准确性越高,反之,则越差。RMSE值越小,表示客观评价方法的预测越准确,性能越好;反之,则越差。表示本发明方法的评价性能的CC、SROCC和RMSE指标如表1所列。由表1中所列的数据可见,按本发明方法计算得到的失真立体视频的客观评价质量与平均主观评分差值DMOS之间有很好的相关性。对于H.264编码压缩失真视频,CC值达到了0.8712,SROCC值达到了0.8532,而RMSE值低至5.7212;对于JPEG2000编码压缩失真视频,CC值达到了0.9419,SROCC值达到了0.9196,而RMSE值低至4.1915;对于包含以上两种失真视频的总体失真视频,CC值达到了0.9201,SROCC值达到了0.8910,而RMSE值低至5.0523;表明了本发明方法的客观评价结果与人眼主观感知的结果较为一致,充分说明了本发明方法的有效性。

表1 按本发明方法计算得到的失真立体视频的客观评价质量与平均主观评分差值之间的相关性

      

CCSROCCRMSE30个H.264编码压缩立体视频0.87120.85325.721240个JPEG2000编码压缩立体视频0.94190.91964.1915共计70个失真立体视频0.92010.89105.0523
      

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号