首页> 中国专利> 视频图像中内容的光流和轮廓特征动态结构融合方法

视频图像中内容的光流和轮廓特征动态结构融合方法

摘要

本发明公开了一种视频图像中内容特征动态结构融合方法,采用空间分布直方图特征描述光流和轮廓,提取各自特征序列的动态模型的不变参数构建动态特征,然后通过子空间度量的方法求出各自的结构表征,最后通过广义矩阵分解的方法求得融合结构,得出分类判别能力强的特征表征,获得了分类判别能力强的特征表征,解决了现有的方法无法进行特征的动态结构融合,无法准确的表征特定内容特征的问题。

著录项

  • 公开/公告号CN103136730A

    专利类型发明专利

  • 公开/公告日2013-06-05

    原文格式PDF

  • 申请/专利权人 西安理工大学;

    申请/专利号CN201310030401.7

  • 申请日2013-01-25

  • 分类号G06T5/00;

  • 代理机构西安弘理专利事务所;

  • 代理人李娜

  • 地址 710048 陕西省西安市金花南路5号

  • 入库时间 2024-02-19 19:20:08

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2015-06-03

    授权

    授权

  • 2013-07-10

    实质审查的生效 IPC(主分类):G06T5/00 申请日:20130125

    实质审查的生效

  • 2013-06-05

    公开

    公开

说明书

技术领域

本发明属于视频监控图像处理技术领域,涉及一种视频图像中内容的光流和轮廓特征动态结构融合方法。 

背景技术

近年来,基于内容分析的智能监控系统、视频检索、运动分析和高级人机交互的应用越来越多,要智能分析和识别目标,特征表征与认知是需要解决的关键问题,因为视频图像中特定内容的光流和轮廓表征的序列中的动态性和多样性,使得单一特征表征不充分,序列动态特征和结构融合难以描述和获取,不能显现特征的分辨特性,对于这种情况当前的方法无法进行特征的动态结构融合,进而无法更加准确的表征特定内容的特征。 

发明内容

本发明的目的是提供一种视频图像中内容的光流和轮廓特征动态结构融合方法,以解决现有的方法无法进行特征的动态结构融合,无法准确的表征特定内容特征的问题。 

本发明所采用的技术方案是,视频图像中内容特征动态结构融合方法,采用空间分布直方图特征描述光流和轮廓,提取各自特征序列的动态模型的不变参数构建动态特征,然后通过子空间度量的方法求出各自的结构表征,最后通过广义矩阵分解的方法求得融合结构,得出分类判别能力强的特征表征。 

本发明的特点还在于,具体按照以下步骤实施: 

步骤1,特定内容的光流和轮廓特征描述 

设I(x,y)为图像在点(x,y)处的像素值,其中,x和y分别表示点的横纵坐标,令有光流矢量起点坐标的图像像素值为1,有轮廓坐标的图像像素值为1,其它图像的像素值为0; 

令c(xc,yc)为图像的重心,xc和yc分别是重心的横纵坐标, 

xc=ΣxΣyx×I(x,y)ΣxΣyI(x,y)---(1)

yc=ΣxΣyy×I(x,y)ΣxΣyI(x,y)---(2)

特征表征为光流或轮廓空间点分布的特征,以距离重心c(xc,yc)最远光流或轮廓上非零信息点的欧氏距离为半径形成轮廓外接圆,外接圆的中心在重心c(xc,yc)上,以c(xc,yc)建立极坐标,在角度上分18等份,径向上分等5份,在外接圆上会形成90个区域,统计在每个区域上的非零信息点个数,根据角度从小到大和径向距离从小到大形成90维的向量,统计的起点为极坐标角度为0方向,光流或轮廓分别表征为90维的特征向量f1和f2; 

步骤2,光流和轮廓特征序列动态特征获取 

(2.1)光流特征序列为{f1(t)}1<t<τ,τ为视频序列的帧数,t为序列数; 

对光流特征序列进行奇异值分解得下式, 

[f1(1),f1(2),...,f1(τ)]=U1S1V1T---(3)

其中,U1、V1和S1分别为式(3)左边奇异值分解的行正交矩阵、列正交矩阵和对角矩阵; 

C1=U1          (4) 

A1=S1V1TD11V1(V1TD12V1)-1S1-1---(5)

其中,C1和A1分别为光流特征序列的测量矩阵和转换矩阵,D11=[00;Iτ-10],D12=[Iτ-10;00],Iτ-1为τ-1维单位矩阵; 

则光流特征的序列动态特征为, 

O1T=[C1T,(C1A1)T,(C1A12)T,(C1A13)T,(C1A14)T,(C1A15)T]---(6);

(2.2)轮廓特征序列为{f2(t)}1<t<τ,τ为视频序列的帧数,t为序列数; 

对轮廓特征序列进行奇异值分解得下式, 

[f2(1),f2(2),...,f2(τ)]=U2S2V2T---(7)

其中,U2、V2和S2分别为式(7)左边奇异值分解的行正交矩阵、列正交矩阵和对角矩阵; 

C2=U2          (8) 

A2=S2V2TD21V2(V2TD22V2)-1S2-1---(9)

其中,C2和A2分别为轮廓特征序列的测量矩阵和转换矩阵,D21=[00;Iτ-10],D22=[Iτ-10;00],Iτ-1为τ-1维单位矩阵; 

则轮廓特征的序列动态特征为, 

O2T=[C2T,(C2A2)T,(C2A22)T,(C2A23)T,(C2A24)T,(C2A25)T]---(10);

步骤3,动态特征结构的度量 

设视频数据集的数目为m,为光流的序列动态特征集,其中,为的第m段视频序列的光流特征的序列动态特征; 为轮廓的序列动态特征集,其中,为的第m段视频序列的轮廓特征的序列动态特征; 

(3.1)对光流特征的序列动态特征度量,设为和的距离, 和两个子空间的标准正交基为T1i={t1i1,t1i2,...,t1i5}和R1j={r1j1,r1j2,...,r1j5},则有 

d1(O1iT,O1jT)=||B1T1i-B1R1j||2---(11)

其中,B1T1i=[t1i1,t1i2,...,t1i5]×[t1i1,t1i2,...,t1i5]T,B1R1j=[r1j1,r1j2,...,r1j5]×[r1j1,r1j2,...,r1j5]T;

(3.2)对轮廓特征的序列动态特征度量,设为和的距离, 和两个子空间的标准正交基为T2i={t2i1,t2i2,...,t2i5}和R2j={r2j1,r2j2,...,r2j5},则有 

d2(O2iT,O2jT)=||B2T2i-B2R2j||2---(12)

其中,B2T2i=[t2i1,t2i2,...,t2i5]×[t2i1,t2i2,...,t2i5]T,B2R2j=[r2j1,r2j2,...,r2j5]×[r2j1,r2j2,...,r2j5]T;

步骤4,动态特征结构融合映射 

定义P1={O11T,O12T,...,O1mT}P2={O21T,O22T,...,O2mT}特征结构测度相似矩阵,以步骤3计算度量的相似矩阵为W1={W1i,j}和W2={W2i,j}(i=1,2,...,m j=1,2,...,m)如下式: 

W1i,j=e-d1(O1iT,O1jT)0---(13)

当时,和是近邻,当W1i,j=0时,和不是近邻; 

W2i,j=e-d2(O2iT,O2jT)0---(14)

当时,和是近邻,当W2i,j=0时,和不是近邻; 

P=P1P2=[p1,p2,...,pm]---(15)

其中,pi=O1iTO2iT;

Wi,j=W1i,j+W2i,j             (16) 

其中,Wi,j为W矩阵在i行j列的元素; 

可以通过以下两式求解, 

(DU-WU)v=λDUv          (17) 

(DV-WV)u=λDVu          (18) 

其中,DU=ΣiDiipiUUTpiT,Dii=ΣjWij,WU=Σi,jWijpiUUTpiT,DV=ΣiDiipiVVTpiT,v为求解式(17)最小的d个广义特征值λ12<...<λd对应的特征向量v1,v2,...,vd,u为求解式(18)最小的d个广义特征值λ12<...<λd对应的特征向量u1,u2,...,ud; 

求解U和V矩阵过程如下: 

①设U为单位矩阵,求解式(17)最小的d个广义特征值λ12<...<λd对应的特征向量v1,v2,...,vd,则 

V=[v1,v2,...,vd]          (19) 

②将V带入式(18),求解最小的d个广义特征值λ12<...<λd对应的特征向量u1,u2,...,ud,则 

U=[u1,u2,...,ud]          (20) 

再将U带入式(17)求解,重复以上①和②过程20次,最终求得U和V矩阵; 

最终结构融合的特征为Y, 

Y=UTPV          (21)。 

本发明的有益效果是,通过本发明的针对视频图像中特定内容对象,分别描述光流和轮廓特征,在各自的特征序列上获取动态模型的不变参数组成特征向量空间,然后通过子空间度量的方法求出各自的结构表征,最后通过广义矩阵分解的方法求得融合结构,得出分类判别能力强的特征表征的方 法,获得了分类判别能力强的特征表征,解决了现有的方法无法进行特征的动态结构融合,无法准确的表征特定内容特征的问题。 

具体实施方式

下面结合具体实施方式对本发明进行详细说明。 

本发明提供了一种视频图像中内容特征动态结构融合方法,采用空间分布直方图特征描述光流和轮廓,提取各自特征序列的动态模型的不变参数构建动态特征,然后通过子空间度量的方法求出各自的结构表征,最后通过广义矩阵分解的方法求得融合结构,得出分类判别能力强的特征表征,按照以下步骤实施: 

步骤1,特定内容的光流和轮廓特征描述 

光流和轮廓特征表征有多种方法,能充分表现空间点分布的特征为光流矢量起点和轮廓点分布直方图,因为其在特征描述时不仅考虑到相对距离,还考虑到了相关角度和空间位置分布信息。 

设I(x,y)为图像在点(x,y)处的像素值,其中,x和y分别表示点的横纵坐标,令有光流矢量起点坐标的图像像素值为1,有轮廓坐标的图像像素值为1,其它图像的像素值为0; 

令c(xc,yc)为图像的重心,xc和yc分别是重心的横纵坐标: 

xc=ΣxΣyx×I(x,y)ΣxΣyI(x,y)---(1)

yc=ΣxΣyy×I(x,y)ΣxΣyI(x,y)---(2)

特征表征为光流或轮廓空间点分布的特征,以距离重心c(xc,yc)最远光流 或轮廓上非零信息点的欧氏距离为半径形成轮廓外接圆,外接圆的中心在重心c(xc,yc)上,以c(xc,yc)建立极坐标,在角度上分18等份,径向上分等5份。在外接圆上会形成90个区域,统计在每个区域上的非零信息点个数,根据角度从小到大和径向距离从小到大形成90维的向量,统计的起点为极坐标角度为0方向。光流或轮廓分别表征为90维的特征向量f1和f2。为了保证尺度不变,向量除以向量的均值来归一化。因为参考点在光流或轮廓的非零信息点上,所以特征具有天然的平移不变性。 

步骤2,光流和轮廓特征序列动态特征获取 

(2.1)光流特征序列为{f1(t)}1<t<τ,τ为视频序列的帧数,t为序列数, 

对光流特征序列进行奇异值分解得下式, 

[f1(1),f1(2),...,f1(τ)]=U1S1V1T---(3)

其中,U1、V1和S1分别为式(3)左边奇异值分解的行正交矩阵、列正交矩阵和对角矩阵; 

C1=U1          (4) 

A1=S1V1TD11V1(V1TD12V1)-1S1-1---(5)

其中,D11=[00;Iτ-10],D12=[Iτ-10;00],Iτ-1为τ-1维单位矩阵,C1和A1分别为光流特征序列的测量矩阵和转换矩阵, 

则光流特征的序列动态特征为

O1T=[C1T,(C1A1)T,(C1A12)T,(C1A13)T,(C1A14)T,(C1A15)T]---(6);

(2.2)轮廓特征序列为{f2(t)}1<t<τ,τ为视频序列的帧数,t为序列数,对轮廓特征序列进行奇异值分解得下式, 

[f2(1),f2(2),...,f2(τ)]=U2S2V2T---(7)

其中U2、V2和S2分别为式(7)左边奇异值分解的行正交矩阵、列正交矩阵和对角矩阵; 

C2=U2          (8) 

A2=S2V2TD21V2(V2TD22V2)-1S2-1---(9)

其中,D21=[00;Iτ-10],D22=[Iτ-10;00],Iτ-1为τ-1维单位矩阵,C2和A2分别为轮廓特征序列的测量矩阵和转换矩阵, 

则轮廓特征的序列动态特征为

O2T=[C2T,(C2A2)T,(C2A22)T,(C2A23)T,(C2A24)T,(C2A25)T]---(10);

步骤3,动态特征结构的度量 

当一个视频数据集的数目为m时,为光流的序列动态特征集,其中为的第m段视频序列的光流特征的序列动态特征; 为轮廓的序列动态特征集,其中为的第m段视频序列的轮廓特征的序列动态特征;因为P1和P2分别为向量空间的集合,所以各特征集的内在结构通过向量空间的距离进行度量; 

(3.1)对光流特征的序列动态特征度量,设为和的距离, 和两个子空间的标准正交基为T1i={t1i1,t1i2,...,t1i5}和R1j={r1j1,r1j2,...,r1j5},则有 

d1(O1iT,O1jT)=||B1T1i-B1R1j||2---(11)

其中,B1T1i=[t1i1,t1i2,...,t1i5]×[t1i1,t1i2,...,t1i5]T,B1R1j=[r1j1,r1j2,...,r1j5]×[r1j1,r1j2,...,r1j5]T;

(3.2)对轮廓特征的序列动态特征度量,设为和的距离, 和两个子空间的标准正交基为T2i={t2i1,t2i2,...,t2i5}和R2j={r2j1,r2j2,...,r2j5},则有 

d2(O2iT,O2jT)=||B2T2i-B2R2j||2---(12)

其中,B2T2i=[t2i1,t2i2,...,t2i5]×[t2i1,t2i2,...,t2i5]T,B2R2j=[r2j1,r2j2,...,r2j5]×[r2j1,r2j2,...,r2j5]T;

步骤4,动态特征结构融合映射 

定义P1={O11T,O12T,...,O1mT}P2={O21T,O22T,...,O2mT}特征结构测度相似矩阵,以步骤3计算度量的相似矩阵为W1={W1i,j}和W2={W2i,j}(i=1,2,...,m j=1,2,...,m)如下式: 

W1i,j=e-d1(O1iT,O1jT)0---(13)

当时,和是近邻,当W1i,j=0时,和不是近邻; 

W2i,j=e-d2(O2iT,O2jT)0---(14)

当时,和是近邻,当W2i,j=0时,和不是近邻; 

P=P1P2=[p1,p2,...,pm]---(15)

其中,pi=O1iTO2iT

Wi,j=W1i,j+W2i,j          (16) 

其中,Wi,j为W矩阵在i行j列的元素; 

可以通过以下两式求解, 

(DU-WU)v=λDUv          (17) 

(DV-WV)u=λDVu          (18) 

其中,DU=ΣiDiipiUUTpiT,Dii=ΣjWij,WU=Σi,jWijpiUUTpiT,DV=ΣiDiipiVVTpiT,v为求解式(17)最小的d个广义特征值λ12<...<λd对应的特征向量v1,v2,...,vd,u为求解式(18)最小的d个广义特征值λ12<...<λd对应的特征向量u1,u2,...,ud; 

求解U和V矩阵过程如下: 

①最初设U为单位矩阵,求解式(17)最小的d个广义特征值λ12<...<λd对应的特征向量v1,v2,...,vd,则 

V=[v1,v2,...,vd]          (19) 

②带入求解式(18)最小的d个广义特征值λ12<...<λd对应的特征向量u1,u2,...,ud,则 

U=[u1,u2,...,ud]          (20) 

再带入求解式(17),重复以上①和②过程20次,最终求得U和V矩阵。 

最终结构融合的特征为Y, 

Y=UTPV          (21)。 

本发明的方法首先通过全局建立相对极坐标和局部统计计数,对人体动作空间分布进行描述,获取了各个轮廓以及光流特征的空间结构,然后利用ARMA(自回归滑动平均)对各个特征的空间分布特征时序建立模型,分别获得模型参数特征,最后对模型参数计算动作相似矩阵,对相似矩阵关系进行线性假设,建立统一的融合优化式,求取结构融合参数,识别时直接利用融合后的映射特征进行最近邻分类。 

Weizmann人体动作数据库是被广泛应用到人体动作识别中的数据库之一,这个数据库包含了9个人执行的10个动作类(bend,jack,jump,pjump,run,side,skip,walk,wave1和wave2),一共93个视频序列。 

参见表1,可看出本发明的方法在Weizmann人体动作数据库中的识别率达到了100%,高于现有的方法,即使对于容易混淆的jump和skip,仍然具有很好的识别精度,虽然这些动作在表面轮廓特征表征时很相近,但是运 动光流特征和动态建模取得的时间结构有较大差异,所以本发明的方法达到了很好的识别率。 

表1Weizmann数据库中不同特征的人体动作ARMA动态建模识别结果 

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号