首页> 中国专利> 3D显示系统用的测量人眼瞳距的方法及系统和显示设备

3D显示系统用的测量人眼瞳距的方法及系统和显示设备

摘要

本发明涉及一种3D显示系统用的测量人眼瞳距的方法及系统和显示设备,其方法包括:获取包含观察者脸部特征的图像数据;获得人眼图像瞳距值;依据真实空间的尺寸因素结果将人眼图像瞳距值转化为三维空间系下的实际瞳距值;输出实际瞳距值。其可以自动实时获得观察的瞳距,提高瞳距检测的实时性。并且基于此自动实时获取的瞳距,可以随着观察者自身的瞳距来自动调节3D画面的数据源,从而使得3D显示效果能够跟随观察者的瞳距而发生改变,避免裸眼观看3D显示时产生眩晕感,延长了裸眼观看3D的时间,有利于大范围的推广应用裸眼3D技术产品。上述处理方法和系统可以应用于手机、各类电脑,广告机、液晶拼接墙、医疗显示设备等有图像处理能力的装置。

著录项

  • 公开/公告号CN105704479A

    专利类型发明专利

  • 公开/公告日2016-06-22

    原文格式PDF

  • 申请/专利号CN201610070968.0

  • 申请日2016-02-01

  • 分类号H04N13/04(20060101);

  • 代理机构44224 广州华进联合专利商标代理有限公司;

  • 代理人吴英

  • 地址 英国英格兰赫特福德郡斯蒂夫尼奇镇韦奇伍德路韦奇伍德大院08室

  • 入库时间 2023-12-18 15:37:03

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2019-03-01

    授权

    授权

  • 2017-05-17

    著录事项变更 IPC(主分类):H04N13/04 变更前: 变更后: 申请日:20160201

    著录事项变更

  • 2016-07-20

    实质审查的生效 IPC(主分类):H04N13/04 申请日:20160201

    实质审查的生效

  • 2016-06-22

    公开

    公开

说明书

技术领域

本发明涉及裸眼3D显示技术的改进,特别是涉及一种测量人眼瞳距的方法及系统和一种将该测量技术进行应用的裸眼3D显示设备。

背景技术

裸眼式3D技术的研发分两个方向,一是硬件设备的研发,二为显示内容的处理研发。第二种已经开始小范围的商业运用。大众消费者接触的不多。裸眼式3D技术最大的优势便是摆脱了眼镜的束缚,但是分辨率、可视角度和可视距离等方面还存在很多不足。当然,近几年国内又出现一种更简单的裸眼3D成像技术,也就是第二种技术。它是直接运用在特定的所要需要表现3D效果的东西上,比如广告行业的平面海报上面,电子商务的产品展示上面等等。

但是,目前3D显示技术,在图像处理进行3D显示时,无论是基于9视点差等技术来进行立体图像的显示,还是其他方式,由于裸眼3D没有眼镜设备的视差调节,并且每个人双眼睛的瞳孔之间的距离是不同的,所以在立体显示场景(图像和视频)的获取和再现方面,都采用理论瞳距来进行立体图像的显示,因为不同的人看到同样显示效果的立体图像时,则会非常不适应,对有些观看者观看一定时间后会产生头晕,具有明显的眩晕感,从而无法长时间裸眼观看3D成像效果,从而导致裸眼3D的显示技术无法大范围的进行商业推广。

发明内容

基于现有技术中存在的问题,有必要提供一种可自动实时的测量观看者人眼瞳距的方法。

一种测量人眼瞳距的方法,其包括:

获取包含观察者脸部特征的图像数据;

依据所述图像数据,基于人脸部特征分析获得左眼图像位置和右眼图像位置;

根据所述左眼图像位置和右眼图像位置,获得人眼图像瞳距值;

获取真实空间的尺寸因素检测结果,依据该结果将所述人眼图像瞳距值,转化为三维空间系下的实际瞳距值;

输出所述实际瞳距值。

在其中一个实施例中,所述获取真实空间的尺寸因素检测结果,依据该结果将所述人眼图像瞳距值,转化为三维空间系下的实际瞳距值的步骤包括:

对所述图像数据进行图像特征分析;

判断所述图像数据中是否存在参照物,

若是,则测量参照物的图像尺寸,

基于参照物的已知真实尺寸和参照物的图像尺寸,由所述人眼图像瞳距值获得所述实际瞳距值。

在其中一个实施例中,所述获取真实空间的尺寸因素检测结果,依据该结果将所述人眼图像瞳距值,转化为三维空间系下的实际瞳距值的步骤包括:

获取人脸实际位置距离深度相机模块的空间距离;

将所述人眼图像瞳距值除以所述空间距离,再乘以拍摄系统常数,获得所述实际瞳距值。

在其中一个实施例中,所述获取人脸实际位置距离深度相机模块的空间距离的步骤包括:

判断所述图像数据是否是由深度相机模块采集的图像数据;

若是,则执行以下步骤:

将所述图像数据进行空间转换,获得深度图像数据;

基于深度图像数据,获得人脸实际位置距离深度相机模块的空间距离。

在其中一个实施例中,当所述图像数据不是由深度相机模块采集的图像数据时,则提醒用户输入所述人脸实际位置距离深度相机模块的空间距离。

在其中一个实施例中,若所述图像数据中不存在参照物时,则执行所述获取人脸实际位置距离深度相机模块的空间距离的步骤。

在其中一个实施例中,一种测量人眼瞳距的系统,其包括:

图像获取模块,用于获取包含人物脸部特征的图像数据;

图像位置计算模块,用于依据所述图像数据,基于人脸部特征分析获得左眼图像位置和右眼图像位置;

瞳距测算模块,用于根据所述左眼图像位置和右眼图像位置,获得人眼图像瞳距值;

空间数据转化模块,用于获取真实空间的尺寸因素检测结果,依据该结果将所述人眼图像瞳距值,转化为三维空间系下的实际瞳距值;

输出模块,用于输出所述实际瞳距值。

在其中一个实施例中,所述空间数据转化模块包括:

图像特征分析模块,用于对所述图像数据进行图像特征分析;

第一判断模块,用于判断所述图像数据中是否存在参照物,若是,则测量参照物的图像尺寸;

第一计算模块,用于基于参照物的已知真实尺寸和参照物的图像尺寸,由所述人眼图像瞳距值获得所述实际瞳距值。

在其中一个实施例中,所述空间数据转化模块包括:

距离获知模块,用于获取人脸实际位置距离深度相机模块的空间距离;

第二计算模块,用于将所述人眼图像瞳距值除以所述空间距离,再乘以拍摄系统常数,获得所述实际瞳距值。

在其中一个实施例中,一种裸眼3D显示设备,其包括:

裸眼3D显示屏,用于接收左右两路摄像机视频数据流并输出显示,用以在裸眼观看下获得3D显示效果;

设置在裸眼3D显示屏上的摄像模块,用于获取包含观察者脸部特征的图像数据;

图像处理器,所述图像处理器的数据输入端连接所述摄像模块的输出,所述图像处理器的数据输出连接所述裸眼3D显示屏的数据输入,所述图像处理器用于依据所述图像数据,基于人脸部特征分析获得左眼图像位置和右眼图像位置,根据所述左眼图像位置和右眼图像位置,获得人眼图像瞳距值,获取真实空间的尺寸因素检测结果,依据该结果将所述人眼图像瞳距值,转化为三维空间系下的实际瞳距值,并将源3D视频图像数据中虚拟左右摄像机的间距设定为所述实际瞳距值,计算更新后的深度图像数据,根据更新后的深度图像数据,以设定的间距所对应的虚拟左右摄像机位置作为视角,生成左右两路摄像机视频数据流,输出所述左右两路摄像机视频数据流至裸眼3D显示屏上。

本发明提供一种新的图像处理方式,其可以自动实时获得观察的瞳距,提高瞳距检测的实时性。并且基于此自动实时获取的瞳距,可以随着观察者自身的瞳距来自动调节3D画面的数据源,从而使得3D显示效果能够跟随观察者的瞳距而发生改变,避免裸眼观看3D显示时产生眩晕感,延长了裸眼观看3D的时间,有利于大范围的推广应用裸眼3D技术产品。

附图说明

图1为本发明一实施例中的空间结构示意图;

图2为本发明一实施例中的电路结构示意图;

图3为本发明一实施例中的方法流程示意图;

图4为本发明一实施例中的图像域解析示意图;

图5为本发明一实施例中的图像域解析示意图;

图6为本发明一实施例中的方法流程示意图;

图7为本发明一实施例中的系统框架示意图;

图8和图9为双眼视差和场景深度的示意图;

图10为本发明一实施例中的系统框架示意图;

图11为本发明一实施例中左右摄像机与物体的位置相对关系;

图12为本发明一实施例中左右摄像机间距与图像其他参数之间的对应关系;

图13为本发明实施例中投影图像转化示意图。

具体实施方式

为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中给出了本发明的较佳实施方式。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施方式。相反地,提供这些实施方式的目的是使对本发明的公开内容理解的更加透彻全面。

需要说明的是,当元件被称为“固定于”另一个元件,它可以直接在另一个元件上或者也可以存在居中的元件。当一个元件被认为是“连接”另一个元件,它可以是直接连接到另一个元件或者可能同时存在居中元件。本文所使用的术语“垂直的”、“水平的”、“左”、“右”以及类似的表述只是为了说明的目的,并不表示是唯一的实施方式。

除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施方式的目的,不是旨在于限制本发明。本文所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和所有的组合。

为了解决现有情况下裸眼观看3D显示效果时,因为观察者会有眩晕感导致无法延长持续观看时间的问题,本发明通过提供一种可以自动实时测量观察者人眼瞳距的方案来获得实时获得观察者的实际瞳距值,从而可以随着观察者自身的瞳距来自动调节3D画面的数据源,令3D显示效果能够跟随观察者的瞳距而发生改变,避免裸眼观看3D显示时产生眩晕感,延长了裸眼观看3D的时间,有利于大范围的推广应用裸眼3D技术产品。以下将结合附图详细说明本发明的各个具体实施方式。

如图1所示,在本发明的其中一个实施例中,提供一种防止眩晕感的裸眼3D显示设备,这里的裸眼3D显示设备可以为裸眼3D显示屏的广告机、IPAD、手机等等能够实现裸眼3D观看的设备,该设备包括以下几个组件:

1、裸眼3D显示屏20。通过接收左右两路摄像机视频数据流,可以获得3D显示效果30。该显示效果,使画中事物既可凸出于画面之外,也可深藏于画面之中,色彩艳丽、层次分明、活灵活现、栩栩如生,是真正意义上的三维立体影象。

裸眼3D显示屏,利用人两眼具有视差的特性,在不需要任何辅助设备(如3d眼镜,头盔等)的情况下,即可获得具有空间、深度的逼真立体形象的显示系统。3D是three-dimensional的缩写,就是三维图形。在计算机里显示3D图形,就是说在平面里显示三维图形。裸眼立体影像以其真实生动的表现力,优美高压的环境感染力,强烈震撼的视觉冲击力,深受广大消费者的青睐。

目前裸眼3D显示主要有以下两种技术,一种是光屏障式技术。

光屏障式3D技术的实现方法是使用一个开关液晶屏、偏振膜和高分子液晶层,利用液晶层和偏振膜制造出一系列方向为90°的垂直条纹。这些条纹宽几十微米,通过它们的光就形成了垂直的细条栅模式,称之为“视差障壁”。而该技术正是利用了安置在背光模块及LCD面板间的视差障壁,在立体显示模式下,应该由左眼看到的图像显示在液晶屏上时,不透明的条纹会遮挡右眼;同理,应该由右眼看到的图像显示在液晶屏上时,不透明的条纹会遮挡左眼,通过将左眼和右眼的可视画面分开,使观者看到3D影像。

另一种是柱状透镜技术。柱状透镜技术也被称为微柱透镜3D技术,使液晶屏的像平面位于透镜的焦平面上,这样在每个柱透镜下面的图像的像素被分成几个子像素,这样透镜就能以不同的方向投影每个子像素。于是双眼从不同的角度观看显示屏,就看到不同的子像素。

2、摄像模块21,用于采集观察者10面对裸眼3D显示屏20的图像数据。摄像模块21可以是视频摄像头,数码照相机,以及其它图像获取设备。

该摄像模块21可以是一个深度摄像机或多个深度摄像机。深度摄像模块21设置在裸眼3D显示屏20上,用于获取包含观察者脸部特征的图像数据。利用深度摄像模块可以捕获更多的图像信息,利用深度摄像模块捕获的图像信息可以获得观察者距离显示屏的远近,以及更加真实简便的实时获取观察者的真实瞳距。

当然,上述摄像模块21还可以是普通摄像机,那么基于标准参照系的,利用人脸识别也可以从普通摄像机获得的图像信息中获得在标尺参照下的瞳距检测结果。例如,将观察者与参照标尺位于同一位置处,即标尺与观察者距离摄像机的距离相同,然后利用摄像机将观察者与参照标尺一同摄入图像数据中,利用该图像数据获得观察者的真实瞳距。当然这里的标尺也可以理解为是参照物,参照物是已知真实尺寸且可以被摄入图像数据中的物或人,比如已知身高尺寸的人,场景中标记有已知尺寸的物体等等。

3、图像处理器40,可以是一个处理器或多个处理器的组合。如图2所示,图像处理器40包括瞳距计算处理器44和立体图像处理模块43,瞳距计算处理器44用于接收来自摄像模块21获得的图像数据,并根据该图像数据获得实际瞳距值,实际瞳距值的获取方式可参见下文有关图3的描述。而立体图像处理模块43可以将源3D视频图像数据中虚拟左右摄像机的间距设定为瞳距计算处理器44获得的实际瞳距值,计算更新后的深度图像数据,根据更新后的深度图像数据,以设定的间距所对应的虚拟左右摄像机位置作为视角,生成左右两路摄像机视频数据流,输出该左右两路摄像机视频数据流至裸眼3D显示屏20上用以获得3D显示效果。

当然,在裸眼3D显示屏20与立体图像处理模块43之间还可以设置第二解码器42,用于将从左右两路摄像机视频数据流数据解码后在裸眼3D显示屏20上进行显示。而在摄像模块21与瞳距计算处理器44之间也可以设置第一解码器41,用于将摄像模块21获得图像数据进行解码后供瞳距计算处理器44进行处理。

当然,在本发明的一些实施例中,瞳距计算处理器44和立体图像处理模块43可以集成在一起由一个或多个处理器来实现,也可以将第一解码器和第二解码器也与瞳距计算处理器44和立体图像处理模块43进行集成,从而简化硬件的占用空间,使得3D显示设备的空间占用更小。

本文提到的源3D视频图像数据可以为双摄像机采集的源图像数据,也可以理解为其他多个摄像机拍摄的3D显示的源数据或是用3DMAX等三维软件制作的源图像数据。通常是利用双摄像机采集系统同时拍摄同一场景而获得的图像数据,通常双摄像机的间距在6.5毫米左右。对于此源数据还需进行一些列的处理后,才能在裸眼3D显示屏上进行显示,以下将结合附图3来详细说明,本发明的实施例中有关瞳距自动实时采集的方法流程。

如图3所示,提供一种瞳距自动实时采集的方法流程。

在步骤S100中,利用摄像模块获取包含观察者脸部特征的图像数据。

本实施例中的摄像模块可以为深度相机模块。在步骤S100中,利用深度相机模块采集观察者面对裸眼3D显示屏的深度图像数据,并基于深度图像数据来获得瞳距检测结果。

当然,还可以是利用普通相机模块来进行图像拍摄,获得包含观察者脸部特征的图像数据,然后基于参照物或者输入的人脸实际位置距离深度相机模块的空间距离来计算瞳距检测结果。

在步骤S200中,依据上述图像数据,基于人脸部特征分析获得左眼图像位置和右眼图像位置。如图4所示,通过人脸部特征分析可以获知,在图像域中,左眼图像位置(L1、Y1)和右眼图像位置(L2、Y1)。对于此左眼图像位置(L1、Y1)和右眼图像位置(L2、Y1)的确定,基于图像中左眼和右眼中瞳孔的中心点对应的像素位置。

在步骤S300中,根据上述左眼图像位置和右眼图像位置,获得人眼图像瞳距值H1。也就是,H1=L2-L1。

在步骤S400中,获取真实空间的尺寸因素检测结果,依据该结果将上述人眼图像瞳距值,转化为三维空间系下的实际瞳距值。

在步骤S500中,输出上述实际瞳距值。

在本本发明的其中一个实施例中,上述步骤S400中,获取真实空间的尺寸因素检测结果,依据该结果将上述人眼图像瞳距值,转化为三维空间系下的实际瞳距值的步骤可以采用以下两种方式进行。

第一种,基于图像数据中的已知参照物来进行图像瞳距值的转化,获得实际瞳距值。在上述步骤S100中,利用摄像模块拍摄包括参照物在内的包含观察者脸部特征的图像数据。例如,如图5所示,拍摄参照标尺92与观察者的脸部特征,当然,可以将标尺放在观察者的眼部下方一通拍摄上述图像数据。然后,对图像数据进行如下处理。

首先,对对上述图像数据进行图像特征分析,如图5所示,在图像域勾勒脸部特征,分析出左右眼的位置以及参照物。

然后,判断上述图像数据中是否存在参照物,若是,则测量参照物的图像尺寸(可以理解为参照物的长度在图像域中的像素值,具体可参见下文举例说明),基于参照物的已知真实尺寸和参照物的图像尺寸,由上述人眼图像瞳距值获得上述实际瞳距值。若否,则选择采用其他的方式来获得实际瞳距值。

当需要测量眼睛的瞳距时,图5中将标有特殊设计的刻度直尺或者已知长度的物体(L。)放在眼睛上方,拍摄照片如图5。通过图像识别双眼睛眼球中心的位置得到中心距L(瞳距),即经过眼球中心并垂直于直尺的延长线并在直尺上得到两交点,通过图像识别能读出,左右眼眼球中心对应在标尺92上的刻度X1和X2,则实际瞳距值H2=X2-X1。

或者,通过图像识别双眼睛眼球中心的位置得到中心距的像数值L3(L3=L2-L1)。如图5所示,在分析上述图像数据时,可以非常清晰的了解到左眼图像位置(L1、Y1)和右眼图像位置(L2、Y1),以及作为参照物的标尺92上,左右眼与标尺刻度之间的对应关系。然后再根据已知标尺92的长度L。在图像中的像数值L4,则实际瞳距值L=L。*L3/L4,即L=L。*H1/L4。

当然,图5中提供的是标尺,还可以采用其他已知尺寸的参照物来实现上述实际瞳距值的转化,那么采用以下公式来进行实际瞳距值的计算。

实际瞳距值L=参照物的长度尺寸L。*人眼图像瞳距值H1/参照物的长度在图像中像素值L4。

第二种,根据获取人脸实际位置距离深度相机模块的空间距离D,来将上述人眼图像瞳距值H1除以上述空间距离D,再乘以拍摄系统常数K,获得上述实际瞳距值L。这里的拍摄系统常数,指的是对于摄像模块而言的系统因子,可以采用定标的方式来获知。具体计算公式如下述公式所示。

L=K*H1D

对于获取人脸实际位置距离深度相机模块的空间距离,可以采用人为输入的方式,比如设备进行语音提醒或者屏幕字符输入的方式来进行。当然,还可以基于深度相机模块来自动采集获取。具体可参见如下说明。

首先,判断上述图像数据是否是由深度相机模块采集的图像数据;

若是,则执行以下步骤:先将上述图像数据进行空间转换,获得深度图像数据;然后基于深度图像数据,获得人脸实际位置距离深度相机模块的空间距离,可以通过飞行时间来计算。

在本实施例中,基于深度图像数据获得的深度信息来进行图像瞳距值的转化,获得实际瞳距值,这种方式可以更加自动灵活,并可在人毫无意识的情况下使3D裸眼显示设备完成对观察者瞳距的检测。

此外,当上述图像数据不是由深度相机模块采集的图像数据时,则提醒用户输入上述人脸实际位置距离深度相机模块的空间距离。

当然,还可以将上述两种方式柔和在一起,提供一种更加完整的实际瞳距值的测量,如图6所示。

在本发明的其中一个实施例中,如图6所示,上述步骤S400包括以下步骤:

步骤S410,对上述图像数据进行图像特征分析,判断上述图像数据中是否存在参照物,若是则执行步骤S430,若否则执行步骤S420。

步骤S420,判断上述图像数据是否是由深度相机模块采集的图像数据,若是则执行步骤S450,若否则执行步骤与S470。

步骤S430,测量参照物的图像尺寸(可以理解为参照物的长度在图像域中的像素值)。

步骤S440,基于参照物的已知真实尺寸和参照物的图像尺寸,由上述人眼图像瞳距值获得上述实际瞳距值。具体可以前文有关步骤S430和步骤S440的解释说明。

步骤S450,将上述图像数据进行空间转换,获得深度图像数据;然后基于深度图像数据,获得人脸实际位置距离深度相机模块的空间距离D。

步骤S460,将上述人眼图像瞳距值H1除以上述空间距离D,再乘以拍摄系统常数K,获得上述实际瞳距值L。

步骤S470,提醒输入人脸实际位置距离深度相机模块的空间距离D。提醒的方式可以是语音、声光等各种方式。

步骤S480,判断是否空间距离D的输入,若是,则执行上述步骤S460,通过输入的空间距离D,基于计算获得上述实际瞳距值L。若否,则执行步骤S490。

步骤S490,判断是否等待过时,若是则执行步骤S491,若否则返回步骤S470。

步骤S491,无瞳距输出。

步骤S500,输出上述各个步骤中计算获得的实际瞳距值L。

基于上述过程可知,在本发明的实施例中,若上述图像数据中不存在参照物时,则执行上述获取人脸实际位置距离深度相机模块的空间距离的步骤。当然,上述步骤S420和步骤S410的两个判断可以置换前后顺序,并不影响本发明目的的实现。

图3为本发明一个实施例的方法的流程示意图。应该理解的是,虽然图3的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行,还可以调整前后顺序。

以上各个实施例在具体说明中仅只针对相应步骤的实现方式进行了阐述,然后在逻辑不相矛盾的情况下,上述各个实施例是可以相互组合的而形成新的技术方案的,而该新的技术方案依然在本具体实施方式的公开范围内。

基于上述方法的实现,如图本发明的其中一个实施例中还提供了一种测量人眼瞳距的系统,其包括:

图像获取模块81,用于获取包含人物脸部特征的图像数据;

图像位置计算模块82,用于依据所述图像数据,基于人脸部特征分析获得左眼图像位置和右眼图像位置;

瞳距测算模块83,用于根据所述左眼图像位置和右眼图像位置,获得人眼图像瞳距值;

空间数据转化模块84,用于获取真实空间的尺寸因素检测结果,依据该结果将所述人眼图像瞳距值,转化为三维空间系下的实际瞳距值;

输出模块85,用于输出所述实际瞳距值。

本实施例中,图像获取模块81、图像位置计算模块82、瞳距测算模块83、空间数据转化模块84和输出模块85分别用于执行上述图3所示的步骤S100至步骤S500。

当然,在本发明的其中一个实施例中,上述空间数据转化模块84还可以包括:

图像特征分析模块841,用于对所述图像数据进行图像特征分析;

第一判断模块842,用于判断所述图像数据中是否存在参照物,若是,则测量参照物的图像尺寸;

第一计算模块843,用于基于参照物的已知真实尺寸和参照物的图像尺寸,由所述人眼图像瞳距值获得所述实际瞳距值。

或者,上述空间数据转化模块84还可以包括:

距离获知模块844,用于获取人脸实际位置距离深度相机模块的空间距离;

第二计算模块845,用于将所述人眼图像瞳距值除以所述空间距离,再乘以拍摄系统常数,获得所述实际瞳距值。

上述图像特征分析模块841、第一判断模块842和第一计算模块843,以及距离获知模块844和第二计算模块845分别用于执行上述有关步骤S400的两种实现方式,具体可参见前文的相关说明。当然,上述空间数据转化模块84还可以参照图6中的步骤S410至步骤S491的过程来执行。

例如,如图10所示,上述空间数据转化模块84还可以包括如下方式:

图像特征分析模块841,用于对所述图像数据进行图像特征分析;

第一判断模块842,用于判断所述图像数据中是否存在参照物,若是,则测量参照物的图像尺寸;

第一计算模块843,用于基于参照物的已知真实尺寸和参照物的图像尺寸,由所述人眼图像瞳距值获得所述实际瞳距值;

距离获知模块844,用于获取人脸实际位置距离深度相机模块的空间距离;

第二计算模块845,用于将所述人眼图像瞳距值除以所述空间距离,再乘以拍摄系统常数,获得所述实际瞳距值;以及

模式选择模块846,用于当所述图像数据中不存在参照物,判断上述图像数据是否是由深度相机模块采集的图像数据,若是,则基于包含深度信息的图像数据执行上述距离获知模块844,若否则提醒输入人脸实际位置距离深度相机模块的空间距离D,根据输入的空间距离D执行上述第二计算模块845。

通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品承载在一个非易失性计算机可读存储载体(如ROM、磁碟、光盘,服务器存储空间)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的系统结构和方法。上述图3所示的方法和上述图7所示的系统,可以用于手机、笔记本电脑,便携式电脑、桌面电脑、PC、等有图像处理能力的装置。

如图1所示,在本发明的其中一个实施例中,还提供了一种裸眼3D显示设备,其包括:

裸眼3D显示屏20,用于接收左右两路摄像机视频数据流并输出显示,用以在裸眼观看下获得3D显示效果;

设置在裸眼3D显示屏上的摄像模块21,用于获取包含观察者10脸部特征的图像数据;

图像处理器40,所述图像处理器40的数据输入端连接所述摄像模块的输出,所述图像处理器的数据输出连接所述裸眼3D显示屏的数据输入,所述图像处理器40用于依据所述图像数据,基于人脸部特征分析获得左眼图像位置和右眼图像位置,根据所述左眼图像位置和右眼图像位置,获得人眼图像瞳距值,获取真实空间的尺寸因素检测结果,依据该结果将所述人眼图像瞳距值,转化为三维空间系下的实际瞳距值,并将源3D视频图像数据中虚拟左右摄像机的间距设定为所述实际瞳距值,计算更新后的深度图像数据,根据更新后的深度图像数据,以设定的间距所对应的虚拟左右摄像机位置作为视角,生成左右两路摄像机视频数据流,输出所述左右两路摄像机视频数据流至裸眼3D显示屏上。

上述摄像模块21可以为深度相机模块,或者还可以为普通相机模组。当然,基于普通相机模组,则在上述显示设备之外,在摄像场景中需要增设参照物,则摄像模块21还用于获取包含观察者10脸部特征以及参照物的图像数据。

此外,图像处理器通过上述图3所示的自动测算方式获得观察者真实的瞳距之后,可以利用该瞳距来进行3D图像信息的自动调节,使之显示图像能随着观察者的瞳距而改变,避免观察者裸眼观看3D视频时的眩晕感。具体调节方式如下所示。

首先,缓存源3D视频图像数据。接收提前录制好的3D视频图像数据,或者实时接收来自网络上的3D视频图像数据,并缓存用于以下处理之后再输出。缓存的方式可以是放入RAM缓冲存储区中存储。

然后,依据源3D视频图像数据,获得深度图像数据。这里的源3D视频图像数据可以是深度相机采集的图像数据,或者两个以上的相机在不同角度拍摄同一场景时获得的图像数据,或者通过软件处理方式获得的3D视频图像数据。

其次,利用获得实际瞳距值,将源3D视频图像数据中虚拟左右摄像机的间距设定为所述实际瞳距值,计算更新后的深度图像数据。

在本发明的一个实施例中,上述依据源3D视频图像数据,获得深度图像数据和将源3D视频图像数据中虚拟左右摄像机的间距设定为上述实际瞳距值,计算更新后的深度图像数据的步骤包括以下步骤:

提取双摄像机分别采集的两组视频深度图像;

对上述两组视频深度图像进行视频解码,获得左摄像机源图像数据和右摄像机源图像数据;

基于场景深度值与视差的关系,将左摄像机源图像数据和右摄像机源图像数据中各个像素点在投影平面上的二维坐标位置,转换到三维空间坐标系下的三维坐标位置;

提取二维坐标位置对应的图像显示信息,将该图像显示信息与上述三维坐标位置进行关联,获得上述深度图像数据。

本实施例中,左摄像机源图像数据和右摄像机源图像数据首先基于已知的摄像机位置进行空间匹配,视差深度转换,获得图像深度值信息后,得到上述深度图像数据,以及2D图像信息。深度图像数据中包括像素点的空间位置,以及表征该位置的显示颜色、对比度等等2D图像信息。

其次,将上述实际瞳距值设定为虚拟左右摄像机的间距,并基于上述间距、双眼视差及场景深度(简称景深)的相互关系,重新计算三维空间坐标系下的深度图像数据,获得更新后的深度图像数据,具体计算方式如下所示:

X=B(xl+xr)Z

Y=Bydx

Z=BFdx

上述公式中,(X,Y,Z)表示三维空间坐标系下的像素点位置,B表示摄像机光心间的距离,即实际瞳距值;F为摄像机的焦距;dx表示双眼视差,xl表示虚拟左摄像机投影面上的横坐标,xr表示虚拟右摄像机投影面上的横坐标,y表示虚拟左摄像机和虚拟右摄像机投影面上的纵坐标。

人眼视差和景深的关系参见图8和图9所示,视差产生机理如图5所示,空间任意不同深度的两点,分别投射到观察者二个视网膜上不同位置,而产生的位置差;则称为视差,(该视差经过大脑视觉系统处理形成了立体图像)。利用小角度近似,两点相对双眼视差(用角度表示)和景深,以及瞳距的关系为

ηIδD(D-δ)

这里,F点和G点的相对双眼视差η=β-γ,和两点相对景深为δ,双眼瞳距为I,物距为D。

可见两点的相对双眼视差是与瞳距成正比关系,瞳距越大则相对双眼视差越大。因此,当相对景深和物体空间形状已知的情况下,通过设定新瞳距,可以得到新的双眼视图。

(推理tan(β/2)=(I/2)/(D-δ),则β≈I/(D-δ)0,以及γ≈I/D)

如图8所示,F为固定点,I表示瞳距,δ表示F与G之间的距离,γ表示对于F点双目之间的视差,β表示对于G双目之间的视差,F点与G点之间的相对视差为β-γ。如图8所示,已知2个摄像机视频和摄像机位置,推出其它视点虚拟摄像机所拍摄视频流图,获得深度图像,然后将虚拟视点,即虚拟左右摄像机位置设置为上述步骤中获得的个人用户的实际瞳距值,则就可以获得根据个人用户实际瞳距而更新得到的深度图像数据,获得所需要的虚拟左右摄像机视频数据,从而实现了让3D显示图像随着观看者的瞳距发生变化,让显示图像个性化的适应了观看用户,极大的避免了裸眼观看3D显示图像时的眩晕感。

最后,根据更新后的深度图像数据,以按照获得的实际瞳距值所设定的间距对应的虚拟左右摄像机位置作为视角,生成左右两路摄像机视频数据流,输出上述左右两路摄像机视频数据流至裸眼3D显示屏上,用以获得3D显示效果。这里步骤中主要是将深度图像数据中的空间位置,以及结合2D图像信息,逐帧将深度图像数据投影到设定间距的左右摄像机的投影面上,从而获得左右两路摄像机视频数据流。投影面获得的方式可参见现有技术中的相关说明,在此不再累述。

此外,当在裸眼观看3D显示屏时存在多个观察者时,则在本发明的一个实施例中,获得实际瞳距值的步骤还可以包括以下方式:

步骤S310,采集多个观察者面对裸眼3D显示屏的图像数据;

步骤S320,通过人脸识别分析,判断上述图像数据中是否存在大于一个观察者的情况,若是,则执行步骤S330:参照前文的方法,根据所述图像数据获得每个观察者对应的测定瞳距值;若否,则直接参照前文的方法计算单个观察者的瞳距值。

步骤S340,基于每个观察者对应的测定瞳距值,按照预设规则权重计算所述实际瞳距值。

更进一步地,上述步骤S340中按照预设规则权重计算上述实际瞳距值的步骤可以是:计算图像数据中包含的多个观察者的平均瞳距值,将该平均瞳距值作为所述实际瞳距值输出,或者,还可以是,按照图像数据中多个观察者的分布角度来设定计算权重,计算图像数据中包含的多个观察者的加权平均瞳距值,将该加权平均瞳距值作为所述实际瞳距值输出。当然,还可以采用其他的规则来设定。这种方式考虑了多个观察者同时观察裸眼3D显示屏时的情况,并通过该方式可以考量到多个观察者的情况,在降低眩晕效果的情况下增加裸眼观看3D显示效果的人数。

对于如何获得每个观察者对应的实际瞳距值,则可以参照前文中关于图3的详细说明,在此不再累述。

以下简单说明如何根据源视频画面得到三维空间点,以及根据三维空间点如何得到虚拟视频画面。具体如何匹配两个源摄像机画面中的点,如何区分物体和背景,如何确定物体边缘,如何得到物体表面纹理等问题不讨论。

1、根据源视频画面确定物体在三维欧式空间中的位置:

当用两台摄像机在不同位置拍摄同一场景时,同一物体在两台摄像机画面上的投影位置存在一定的差异,如图11所示,空间中(X,Y,Z)点在左右摄像机画面上的坐标为(xl,yl)和(xr,yr),两者之间的空间视差为dx=xl-xr和dy=yl-yr

图11中,当该两个摄像机为水平放置是,垂直方向视差dy=0。则深度和视差之间存在简单的转换关系。

图12中摄像机的焦距为F,摄像机光心间的距离为B(即虚拟左右摄像机的间距),如坐标原点定为两台摄像机光心两线的中点Cw,左摄像机位置为Cl,左摄像机位置为Cr,则

xl=FX+B2Z

xr=FX-B2Z

yl=yr=y=FYZ

因此视差为

dx=xl-xr=FBZ

由此可得视差图中任一点的空间坐标(即场景深度值与视差之间的转换关系)为

X=B(xl+xr)Z

Y=Bydx

Z=BFdx

2把三维空间点投影到指定虚拟摄像机的成像平面。

如图13所示,空间中(X,Y,Z)点在用户所需的虚拟左右摄像机画面上的坐标为(xl’,yl‘)和(xr’,yr‘),这两个虚拟左右摄像机的光心连线的中点与已知左右摄像机的光心连线的中点重合,虚拟左右摄像机光心连线的距离(或间距)为B’,设定为实际瞳距值,左虚拟摄像机Cl’距离原点Cw为Bl′,右虚拟摄像机Cr’距离原点Cw为Br′,B′=B′l+Br′。

xl=FX+BlZ

xr=FX-BrZ

yl=yr=y=FYZ

则空间同一点在虚拟左右摄像机画面上的投影(xl’,yl‘)和(xr’,yr‘),与已知左右摄像机画面上的投影点(xl,yl)和(xr,yr)的关系为:

xl=FB(xl+xr)+ZBlZ2

xr=FB(xl+xr)-2BrZ2

上述公式中,通过将B’设定为测得的实际瞳距值,然后根据实际瞳距值获得Bl′和Br′,则可以按照上述有关(xl’,yl‘)和(xr’,yr‘)的计算公式,逐点直至转换完成整幅画面的所有点。对于立体视频信号,在视频压缩解码后,对一帧一帧的图像做相应的计算,则可获得新的立体视频,即左右两路摄像机视频数据流,分别对应于虚拟左右摄像机画面上的投影(xl’,yl‘)和(xr’,yr‘)的图像数据集。

上述所叙述的是两个摄像头的情况,对于多个摄像头(N个)获得的源视频图像数据也可以采用上述方法处理,只是在相应的位置处存在信息累加或平均。

对于某一个特定的观看者,输入该观察者的瞳距参数值(如60mm)通过发明的运算实时或非实时视频,采用的虚拟视频的产生方法为基于深度图像绘制(Depth-imageBasedRendering,DIBR)的自由视点视频法。基于深度图像绘制(Depth-imageBasedRendering,DIBR)的自由视点视频可以为用户提供一定范围内的任意视点画面。当三维空间点投影到虚拟摄像机的成像平面后,物体表面的纹理图像可以根据已有的源视频图像得到。

在本发明中用到的源摄像机为两台或N台,源摄像机是水平放置,且空间位置已知,虚拟摄像机的空间位置为测量所得,通过测量得到的瞳距来设定虚拟摄像机的空间位置,从而使得输出的左右两路摄像机视频数据流能够随观看者瞳距的变化而变化,从而能够使得3D显示效果能够跟随观察者的瞳距而发生改变,避免裸眼观看3D显示时产生眩晕感,延长了裸眼观看3D的时间,有利于大范围的推广应用裸眼3D技术产品,这里的3D技术产品可以为裸眼3D显示屏的广告机、IPAD、手机等等能够实现裸眼3D观看的设备。上述处理方法和系统可以应用于手机、各类电脑,、广告机、液晶拼接墙、医疗显示设备等有图像处理能力的装置。

以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。

以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号