首页> 中国专利> 一种面向虚拟视图质量的深度图编码率失真判断方法

一种面向虚拟视图质量的深度图编码率失真判断方法

摘要

本发明公开了一种面向虚拟视图质量的深度图编码率失真判断方法,该方法是对当前编码块进行预测,得到预测块;计算当前编码块与预测块的差值,并对差值进行离散余弦变换、量化和熵编码,得到当前编码块的码率;将当前编码块以及预测块的像素灰度值转换为视差值;然后依据转换后的视差值计算当前编码块的失真;最后依据所得的失真与码率,计算当前编码块的率失真代价。本发明依据深度图的压缩失真对合成虚拟视图质量的影响,更好的反映深度图的压缩失真对合成虚拟视图质量的影响,提高三维立体视频编码的效率,可应用于三位立体视频的编码标准中。

著录项

  • 公开/公告号CN102158710A

    专利类型发明专利

  • 公开/公告日2011-08-17

    原文格式PDF

  • 申请/专利权人 山东大学;

    申请/专利号CN201110140492.0

  • 发明设计人 元辉;刘琚;孙建德;

    申请日2011-05-27

  • 分类号H04N7/26;H04N7/50;H04N7/64;

  • 代理机构济南金迪知识产权代理有限公司;

  • 代理人宁钦亮

  • 地址 250100 山东省济南市历城区山大南路27号

  • 入库时间 2023-12-18 03:00:25

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2017-07-21

    未缴年费专利权终止 IPC(主分类):H04N7/26 授权公告日:20121226 终止日期:20160527 申请日:20110527

    专利权的终止

  • 2012-12-26

    授权

    授权

  • 2011-09-28

    实质审查的生效 IPC(主分类):H04N7/26 申请日:20110527

    实质审查的生效

  • 2011-08-17

    公开

    公开

说明书

技术领域

本发明涉及一种提高深度图编码效率的率失真判断准则,属于三维立体视频编码标准中的深度图编码技术领域。

背景技术

三维立体视频作为未来主要的视频应用技术,是指用户通过三维立体视频显示设备可以享受到真实的三维立体视频内容。三维视频的相关技术,比如,三维立体视频采集、三维立体视频编码、三维立体视频的显示等技术已经得到广泛的关注。为了推动三维立体视频技术的标准化,2002年,运动图像专家组(Motion Picture Experts Group,MPEG)提出任意视点电视(Free View Television,FTV)的概念。它能够提供生动真实的、交互式的三维立体视听系统。用户可以从不同的角度观看该角度的三维立体视频,使得用户有融入视频场景中的真实感受。FTV可广泛应用于广播通信、娱乐、教育、医疗和视频监控等领域。为了使用户可以观看到任意角度的三维立体视频,FTV系统服务端使用已标定好的摄像机阵列获得一定视点上的视频。并对不同视点上的视频校正,利用校正过的视频信息通过虚拟视图合成技术生成虚拟视点的虚拟视图。目前MPEG建议具体使用基于深度-图像(Depth-Image Based Rendering,DIBR)的虚拟视图合成技术。深度信息一般通过深度图表示。虚拟视图合成的主要过程如下:

1).确定要虚拟视点在摄像机阵列中的相对位置。

2).确定用于合成虚拟视点的纹理视频。

3).确定步骤2)的纹理视频对应的深度图。

4).依据步骤2)与3)中的纹理视频和深度图,采用DIBR技术,合成虚拟视图。

FTV的标准化工作分为两个阶段进行。第一阶段是2006年至2008年由JVT(Joint Video Team,联合视频编码组)制定的H.264/AVC的扩展方案-MVC(Multi-View Video Coding)。MVC可以对多视点纹理视频进行编码。但是要最终实现FTV系统的功能,还必须要对深度信息进行编码。目前FTV的标准化制定工作已经进入第二阶段,即3DVC(Three Dimensional Video Coding)。3DVC主要关注深度信息的表示与编码,以及纹理视频与深度信息的联合编码。3DVC中,深度信息通过深度图表示。

衡量3DVC性能的主要指标是合成虚拟视图的质量,以及纹理视频、深度图的编码码率。虚拟视图的质量:

通常采用峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)来衡量视频的质量。PSNR的计算公式如下式所示,

PSNR=10×log(2552MSE)

(1)式中MSE表示原始视图与合成虚拟视图之间的均方误差,用来衡量虚拟视图的失真,以及纹理视频的编码失真、深度图的编码失真。

在实际应用中,虚拟视点的视图是不存在的,也即不存在原始视图。但是由于3DVC主要关注编码性能,因此为衡量3DVC的性能,首先采用未经编码的已有纹理视频及其对应的深度图合成虚拟视图Vorig,然后采用经过编码后的重建的纹理视频以及编码后重建的深度图合成虚拟视图Vrec,最后通过计算Vrec与Vorig之间的MSE,进而得到PSNR,以衡量3DVC的性能。

图1给出了现有H.264/AVC的率失真准则计算流程图,在H.264/AVC视频编码标准中,首先对当前编码块进行预测,然后计算当前编码块与预测块之间的平均平方误差MSE作为失真DH264;然后将当前编码块的像素灰度值减去预测块的像素灰度值,得到预测差值,对预测差值进行离散余弦变换,量化,熵编码,继而得到当前编码块的编码码率RH264,最后采用下式计算当前编码块的率失真代价JH264:JH264=DH266+λ·RH264,其中λ为拉格朗日乘子。

H.264/AVC采用的率失真判断准则没有考虑到深度图的压缩失真对合成虚拟视图的质量的影响,因此采用H.264/AVC的率失真判断准则对深度图进行编码的效率不高。由理论分析可知,合成虚拟视图的失真直接由视差决定,而深度图的质量会影响到视差的准确度。在深度图的压缩过程中,深度图本身的失真不一定会引起视差的不准确;但是当深度图完全准确时,视差也是完全准确的。

发明内容

针对H.264/AVC采用的率失真判断准则没有考虑到深度图的压缩失真对合成虚拟视图的质量的影响,本发明依据深度图的压缩失真对合成虚拟视图质量的影响,提出一种适用于深度图编码的面向虚拟视图质量的率失真判断方法。

本发明面向虚拟视图质量的深度图编码率失真判断方法,是:

对当前编码块进行预测,得到预测块;计算当前编码块与预测块的差值,并对差值进行离散余弦变换、量化和熵编码,得到当前编码块的码率;将当前编码块以及预测块的像素灰度值转换为视差值;然后依据转换后的视差值计算当前编码块的失真;最后依据所得的失真与码率计算当前编码块的率失真代价;具体步骤如下:

(1)对深度图的当前编码块进行预测,得到当前编码块的预测块,当前编码块中的每个像素的灰度值用Li表示,预测块中的每个像素灰度值用Lp,i表示,i∈{1,...N},N为当前编码块中的像素数量;

对深度图的当前编码块进行预测的方法采用H.264/AVC标准规定的各种帧内或帧间预测方法。

(2)将Li与Lp,i相减,得到当前编码块的差值,并对差值进行离散余弦变换、量化和熵编码,确定当前编码块的码率R;

(3)对熵编码数据进行解码,并对解码的数据进行反量化和反离散余弦变换,重建差值信号;

(4)将当前编码块与重建的差值信号相加,重建当前块;

(5)按照下式分别将当前编码块以及步骤(4)所得的重建当前块中的每个像素灰度值转换为视差值,

disi=f·b·[Li255·(1Znear-1Zfar)+1Zfar],

disrec,i=f·b·[Lrec,i255·(1Znear-1Zfar)+1Zfar],

其中disi表示当前编码块中第i个像素的灰度值所对应的视差值,disrec,i表示重建当前块中第i个像素的灰度值所对应的视差值,Lrec,i表示重建当前块的像素灰度值,f表示摄像机的焦距,b为相邻摄像机之间的间距,Znear表示距离摄像机最近的物点的真实深度值,Zfar表示距离摄像机最远的物点的真实深度值;

(6)依据disi与disrec,i计算当前编码块的失真D,其中,当disi与disrec,i相等时,δi等于0,当disi与disrec,i不相等时,δi等于Li-Lrec,i

(7)依据步骤(2)所得的当前编码块的码率R和步骤(6)所得的失真D,并按照下式计算当前编码块的率失真代价J,J=D+λ·R,其中λ为拉格朗日乘子。拉格朗日乘子λ采用H.264/AVC标准规定的数值。

本发明依据深度图的压缩失真对合成虚拟视图质量的影响确定率失真,可以更好的反映深度图的压缩失真对合成虚拟视图质量的影响,提高三维立体视频编码的效率;只需将深度灰度值转换为对应的视差值,并依据视差值计算失真,计算简单易于实现,不会增加编码复杂度。

附图说明

图1是H.264/AVC的率失真准则计算流程图;

图2是本发明的深度图编码率失真判断方法流程图;

图3是分别采用本发明的方法与H.264/AVC的方法对深度图进行编码后的率失真曲线比较图。

具体实施方式

本发明的面向虚拟视图质量的深度图编码率失真判断方法,如图2所示,具体包括如下步骤:

(1)对深度图的当前编码块进行预测,得到当前编码块的预测块,当前编码块中的每个像素的灰度值用Li表示,预测块中的每个像素灰度值用Lp,i表示,i∈{1,...N},N为当前编码块中的像素数量。对深度图的当前编码块进行预测的方法采用H.264/AVC标准规定的各种帧内或帧间预测方法。

(2)将Li与Lp,i相减,得到当前编码块的差值,并对差值进行离散余弦变换,量化,熵编码,确定当前编码块的码率R;

(3)对熵编码数据进行解码,并对解码的数据进行反量化和反离散余弦变换,重建差值信号;

(4)将当前编码块与重建的差值信号相加,重建当前块;

(5)按照下式分别将当前编码块以及步骤1所得的预测块中的每个像素灰度值转换为视差值,

disi=f·b·[Li255·(1Znear-1Zfar)+1Zfar],

disrec,i=f·b·[Lrec,i255·(1Znear-1Zfar)+1Zfar],

其中disi表示当前编码块中第i个像素的灰度值所对应的视差值,disrec,i表示重建块中第i个像素的灰度值所对应的视差值,Lrec,i表示重建块的像素灰度值,f表示摄像机的焦距,b为相邻摄像机之间的间距,Znear表示距离摄像机最近的物点的真实深度值,Zfar表示距离摄像机最远的物点的真实深度值;

(6)依据disi与disrec,i计算当前编码块的失真D,

D=Σi=1Nδi2,

其中,当disi与disrec,i相等时,δi等于0,当disi与disrec,i不相等时,δi等于Li-Lp,i

(7)依据步骤2所得的当前编码块的码率R和步骤6所得的失真D,并按照下式计算当前编码块的率失真代价J,

J=D+λ·R,

其中λ为拉格朗日乘子。拉格朗日乘子λ采用H.264/AVC标准规定的数值。

本发明的效果可以通过实验进一步说明。

实验测试了在不同的量化参数的条件下,采用本发明对深度图进行编码后的编码码率和合成虚拟视图的客观质量PSNR。图3比较了采用本发明与现有H.264/AVC的方法对深度图编码后的率失真曲线。其中图3(a)是对三维视频序列Bookarrival的深度图进行编码的实验结果,图3(b)是对三维视频序列Kendo的深度图进行编码的实验结果,图3(c)是对三维视频序列Lovebirdl的深度图进行编码的实验结果。由图3可见,与H.264/AVC相比,采用本发明进行编码后,在深度图的编码码率相同的条件下,合成的虚拟视图的客观质量更高,说明本发明提高了深度图的编码效率。对三维视频序列Bookarrival而言,合成的虚拟视图的客观质量平均增加0.215dB;对三维视频序列Kendo而言,合成的虚拟视图的客观质量平均增加0.237dB;对三维视频序列Lovebird1而言,合成的虚拟视图的客观质量平均增加0.45dB。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号