首页> 中国专利> 利用脑成像空间特征和底层视觉特征进行视频聚类的方法

利用脑成像空间特征和底层视觉特征进行视频聚类的方法

摘要

本发明涉及一种利用脑功能成像空间特征和底层视觉特征进行视频聚类的方法,其特征在于:提取功能磁共振图像序列中的大脑信号向量,计算信号向量的皮尔森相关系数矩阵,利用单因素方差分析和相关特征选择方法从皮尔森相关系数矩阵中提取脑功能成像空间特征,利用部分视频的底层视觉特征和对应的脑功能成像空间特征建立高斯过程回归模型,将剩余视频的底层视觉特征映射到脑功能成像空间特征上,将所有视频的脑功能成像空间特征和底层视觉特征进行多模态谱聚类。利用本发明方法,可以实现脑功能成像空间特征和底层视觉特征的融合聚类,与基于底层视觉特征如颜色、形状等视频聚类方法及单独使用脑功能特征空间聚类相比,大大提高了聚类准确性。

著录项

  • 公开/公告号CN102855352A

    专利类型发明专利

  • 公开/公告日2013-01-02

    原文格式PDF

  • 申请/专利权人 西北工业大学;

    申请/专利号CN201210293171.9

  • 发明设计人 韩军伟;吉祥;郭雷;胡新韬;

    申请日2012-08-17

  • 分类号G06F17/50;

  • 代理机构西北工业大学专利中心;

  • 代理人王鲜凯

  • 地址 710072 陕西省西安市友谊西路127号

  • 入库时间 2024-02-19 17:04:01

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2020-07-31

    未缴年费专利权终止 IPC(主分类):G06F17/50 授权公告日:20140806 终止日期:20190817 申请日:20120817

    专利权的终止

  • 2014-08-06

    授权

    授权

  • 2013-02-20

    实质审查的生效 IPC(主分类):G06F17/50 申请日:20120817

    实质审查的生效

  • 2013-01-02

    公开

    公开

说明书

技术领域

本发明属于图像处理和应用技术,具体涉及一种利用脑成像空间特征和底层视觉特征进行视频聚类的方法, 

背景技术

随着数字多媒体数据的爆炸式增长,网络上的视频数量与日俱增,用什么样的特征来表示视频变的越来越重要,目前较流行的是提取视频的颜色、纹理和形状等方面的特征,这些特征统称为底层视觉特征。然而,这些传统的视频特征难以精准地描述视频,从而给后续的视频处理带来困难,相比之下,人类却可以瞥一眼正在播放的视频就知道其具体内容,这一现象给了科学家很大的启发,目前,有些学者已经从测试者观看视频时采集的大脑信号中提取相关特征来作为视频的特征,并将这些特征用于视频分类中,这些从大脑信号中提取的特征称之为高层特征,其中利用功能磁共振成像技术采集大脑信号并从这些信号中提取的特征称之为脑功能成像空间特征,与之相关的研究只关注如何提取脑功能成像空间特征,并利用该特征进行视频分类和检索,这些研究目前还处于探索阶段。如何更好地提取大脑信号中的脑功能成像空间特征,并且将脑功能成像空间特征与底层视觉特征相结合,来提高视频聚类的准确率在国内外还属于空白领域,因此,找到更好的脑功能成像空间特征提取方法,并将其与底层视觉特征结合起来提高视频聚类的准确率是一个非常有价值的研究课题,对于视频聚类研究具有非常重要的意义。 

发明内容

要解决的技术问题 

为了避免现有技术的不足之处,本发明提出一种利用脑成像空间特征和底层视觉特征进行视频聚类的方法,将人脑认知信息中的脑功能成像空间特征与视频底层视觉 特征结合起来用于视频聚类中,提高视频聚类技术的准确性。 

技术方案 

一种利用脑成像空间特征和底层视觉特征进行视频聚类的方法,其特征在于步骤如下: 

步骤1提取脑功能成像空间特征,具体步骤如下: 

步骤a1:利用公式>pi,j,k=Σsi,j,rsi,k,r-Σsi,j,rΣsi,k,rn(Σsi,j,r2-(Σsi,j,r)2n)(Σsi,k,r2-(Σsi,k,r)2n)>提取N个功能磁共振图像序列中的,第i个功能磁共振图像序列上大脑M个区域的信号向量Si,j和Si,k的皮0。。。。尔森相关系数pi,j,k,得到第i个功能磁共振图像序列的皮尔森相关系数矩阵: 

>Pi=pi,1,1,pi,1,2,...,pi,1,k,...,pi,1,Mpi,2,1,pi,2,2,...,pi,2,k,...,pi,2,M...pi,j,1,pi,j,2,...,pi,j,k,...,pi,j,M...pi,M,1,pi,M,2,...pi,M,k,...pi,M,M>

其中:信号向量Si,j=[Si,j,1,si,j,2,...,Si,j,r,...Si,j,n],信号向量Si,k=[Si,k,1,Si,k,2,...,Si,k,r,...Si,k,n],i表示N个功能磁共振图像序列中的第i个功能磁共振图像序列的序号,i=1,2,...,N,j,k=1,2,...,M,j表示第i个功能磁共振图像序列中大脑的第j个区域的序号,k表示第i个功能磁共振图像序列中大脑的第k个区域的序号,r表示信号向量Si,j和Si,k中第r个元素的序号,N∈[1,1000],M∈[1,1000],N表示功能磁共振图像序列的总数,M表示功能磁共振图像序列中大脑区域的总数;Si,j,r表示信号向量Si,j的第r个元素;si,k,r表示信号向量Si,k的第r个元素;n表示信号向量Si,j和Si,k的长度; 

所述N个功能磁共振图像序列,是利用功能磁共振技术,在测试者观看N个视频时测得的功能磁共振图像; 

步骤b1:取皮尔森相关系数矩阵Pi上三角部分,拉伸成向量Qi=[qi,1,qi,2,...,qi,d], d=(M×M)/2-M/2,然后将N个Qi向量按行排列构成矩阵D: 

>D=Q1Q2...Qi...QN=q1,1,q1,2,...,q1,dq2,1,q2,2,...,q2,d...qi,1,qi,2,...qi,d...qN,1,qN,2,...qN,d>

其中,qi,1,qi,2,...,qi,d表示Qi的第1,2,…,d个元素; 

步骤c1:计算矩阵D每一列元素的均值,将矩阵D的每一列元素减去该列元素的均值,得到矩阵U: 

>U=U1U2...Ui...UN=u1,1,u1,2,...,u1,du2,1,u2,2,...,u2,d...ui,1,ui,2,...ui,d...uN,1,uN,2,...uN,d>

在矩阵U的第v列Uv=[u1,v,u2,v,...,uN,v]T中找出属于第K类视频的元素,并计算属于第K类视频的元素均值 得到类内均值向量 其中,U1,U2,...,Ui,...,UN表示N个视频对应的功能磁共振图像序列中提取的N个向量,N个视频可分为C类;u1,v,u2,v,..,uN,v表示Uv=[u1,v,u2,v,...,uN,v]T中的第1,2,...,N个元素,这N个元素按照对应的C类视频分为C类;K=1,2,...,C,K表示C类视频中的第K类;C表示N个视频的总类别个数; 

再利用公式>F=(|L||uC|cosθ)×(N-C)(C-1)×(TSS-(|L||uC|)cosθ)>计算累计分布函数参数F; 

利用公式>g=1-1exp(gam(C-1)+gam(N-C)-gam(N-1))>计算参数g; 

当g<T时,T∈(0,10000],保留矩阵U中的第v列;否则,从矩阵U中删除该列,得到经过单因素方差分析选择后的矩阵B: 

>B=B1B2...Bi...BN=b1,1,b1,2,...,b1,xb2,1,b2,2,...,b2,x...bi,1,bi,2,...,bi,x...bN,1,bN,2,...bN,x>

其中,C表示视频的类别总数;||表示取绝对值;L=[l1,l2,..,lK,..lC,]T;lK表示Uv中属于第K类视频的元素个数;θ为向量 和L间的夹角; 表示Uv的均值;上标T表示转置;exp表示指数函数; g<T中的T表示阈值,T∈(0,10000];下标x表示从U中选取的列向量的个数; 

步骤d1:遍历矩阵B的每一列,利用相关特征选择方法将参数 的数值最高的y列构成脑功能成像空间特征矩阵C: 

>C=C1C2...Ci...CN=c1,1,c1,2,...,c1,yc2,1,c2,2,...,c2,y...ci,1,ci,2,...,ci,y...cN,1,cN,2,...cbN,y>

其中:下标y表示从B中选取的列向量的个数; 表示向量[r1,w,r2,w,…,rs,w,…,ry,w]的均值;rs,w表示矩阵C的第s个列向量Cs与类别标签向量W=[1,1,1,...2,2,2,..,K,K,K,..C,C,C]T的相关性参数;上标T表示取向量转置; >rs,w=2.0×[ΣwhCsp(wh)ΣcshCsp(cs,h|wh)log2(cs,h|wh)-Σcs,hCsp(cs,h)log2p(cs,h)-Σcs,hCsp(cs,h)log2p(cs,h)-ΣwhWp(wh)log2p(wh)];>p(wh)表示wh在W中的概率分布;wh表示向量W中的第h个元素;p(cs,h|wh)表示cs,h在Cs中的条件概率分布;p(cs,h)表示cs,h在Cs中的概率分布;cs,h表示向量Cs中的第h个元素;log2表示以2为底数的对数函数; 表示矩阵: 

>r1,1,r1,2,...,r1,o,...,r1,yr2,1,r2,2,...,r2,o,...,r2,y...rs,1,rs,2,...,rs,o,...,rs,y...ry,1,ry,2,...,ry,o,...,ry,y>

中所有元素的均值;rs,o表示矩阵C的第s个列向量Cs与第o个列向量Co的相关性参数;>rs,o=2.0×[Σco,hCop(co,h)Σcs,hCsp(cs,h|co,h)log2p(cs,h|co,h)-Σcs,hCsp(cs,h)log2p(cs,h)-Σcs,hCsp(cs,h)log2p(cs,h)-Σco,hCop(co,h)log2p(co,h)];>co,h表示向量Co中的第h个元素;p(co,h)表示co,h在Co中的概率分布;p(cs,h|co,h)表示cs,h在Cs中的条件概率分布; 

步骤2提取视频库中所有Na个视频数据的底层视觉特征向量Fvid,具体步骤如下: 

步骤a2:利用尺度不变特征变换算法提取第id个视频第一帧的Nsi个描述向量集合FSid={Fsiid,1,Fsiid,2,...,Fsiid,sh,...,Fsiid,Nsi},sh=1,2,...,Nsi,id=1,2,..,Na,Na∈(0,100000],Nsi∈[0,10000],对Na个视频都提取描述向量集合,得到 >[FS1,FS2,...FSid,...,FSNa];>

步骤b2:利用k均值算法对 进行聚类,聚类个数为G; 

步骤c2:计算FSid={Fsiid,1,Fsiid,2,...,Fsiid,sh,...,Fsiid,Nsi}中分别属于G类的向量个数[Numid,1,Numid,2,...,Numid,G],得到第id个视频的底层视觉特征向量:Fvid=[Numid,1,Numid,2,...,Numid,G]; 

步骤3利用高斯过程回归算法预测Na-N个视频数据的脑功能成像空间特征向量: 

利用脑功能成像空间特征矩阵C和其对应N个视频的底层视觉特征[Fv1,Fv2,...,Fvidp,...,FvN],idp=1,2,...,N,建立高斯过程回归模型GPM,利用高斯过程回归模型GPM预测得到Na-N个视频的脑功能成像空间特征向量: 

>CN+1CN+2...CNa=cN+1,1,cN+1,2,...,cN+1,ycN+2,1,cN+2,2,...,cN+2,y...cNa,1,cNa,2,...,cNa,y;>

步骤4利用Na个脑功能成像空间特征向量[C1,C2,...,Cid,...,CNa]和底层视觉特征[Fv1,Fv2,...,Fvid,...,FvNa]进行多模态谱聚类,具体步骤如下: 

步骤a3:计算[C1,C2,...,Cid,...,CNa]中与空间中的一个点Cid=(cid,1,cid,2,...,cid,y)欧氏距离最近的k个点,并定义为近邻关系,k=[1,10000];再计算[Fv1,Fv2,...,Fvid,...,FvNa]中与空间中的一个点Fvid=(fvid,1,fvid,2,...,fvid,y)欧氏距离最近的k个点,并定义为近邻关系;其中: 表示脑功能成像空间特征Cid中第1、2和y个元素;fvid,1,fvid,2,...,fvid,y表示底层视觉特征Fvid中第1、2和y个元素; 

步骤b3:利用 计算属于近邻关系的Cid和Cjd两点间的权重CWeightid,jd,得到权重矩阵; 

>CWeight=CWeight1,1,CWeight1,2,...,CWeight1,jd,...,CWeight1,NaCWeight2,1,CWeight2,2,...,CWeight2,jd,...,CWeight2,Na...CWeightid,1,CWeightid,2,...,CWeightid,jd,...,CWeightid,Na...CWeightNa,1,CWeightNa,2,...,CWeightNa,jd,...,CWeightNa,Na>

同理,利用 计算属于近邻关系Fvi和Fvj之间的权重FvWeightid,jd,得到权重矩阵: 

>FvWeight=FvWeight1,1,FvWeight1,2,...,FvWeight1,jd,...,FvWeight1,NaFvWeight2,1,FvWeight2,2,...,FvWeight2,jd,...,FvWeight2,Na...FvWeightid,1,FvWeightid,2,...,FvWeightid,jd,...,FvWeightid,Na...FvWeightNa,1,FvWeightNa,2,...,FvWeightNa,jd,...,FvWeightNa,Na>

其中:Cid和Cjd表示第id个视频和第jd个视频的脑功能成像空间特征向量;Π表示连乘积;cid,l和cjd,l表示Cid和Cjd的第l个元素;l=1,2,...,y;σl表示一个常数,σl∈(0,1];Fvid和Fvjd表示第id个视频和第jd个视频的底层视觉特征向量;Fvid,l和Fvjd,l表示Fvid和Fvjd的第l个元素; 

步骤c3:在矩阵CWeight中令CWeightid,id=0;在矩阵FvWeight中令FvWeightid,id=0;再利用公式>LC=DC-CWeightLFv=DFv-FvWeight>计算CWeight和FvWeight的拉普拉斯矩阵;利用公式Lmulti-modal=LC+αI+LFv+αI计算多模态拉普拉斯矩阵Lmulti-modal,大小为Na×Na;其中:LC和LFv表示矩阵CWeight和FvWeight的拉普拉斯矩阵;DC表示[C1,C2,...,Cid,...,CNa]中两两脑功能成像空间特征向量之间的欧式距离所构成的矩阵;DFv表示[Fv1,Fv2,...,Fvid,...,FvNa]中两两底视觉层特征向量之间的欧式距离所构成的矩阵;I表示单位矩阵,大小为Na×Na;α表示常数; 

步骤d3:计算多模态拉普拉斯矩阵Lmulti-modal的特征值和特征向量,将特征值从大到小排列,选取前C个特征值对应的特征向量Vector1,Vector2,...,Vectorc,构成矩阵VecMatrix=[Vector1,Vector2,...,Vectorc],大小为Na×C,计算矩阵VecMatrix每一行的和,然后用该行元素分别除以该行元素的和,得到矩阵VecMatrixNew,大小为Na×C;其中:C表示视频库中视频类别个数; 

步骤e3:将VecMatrixNew每行中值最大的元素置为1,其余元素置为0,得到VecMatrixNew1; 

步骤f3:将VecMatrixNew1的每一行视为高维空间中的一个点,用光谱旋转算法对VecMatrixNew1矩阵中的Na个点进行聚类,得到类别矩阵Index,大小为Na×C; 

步骤g3:利用公式Index0=Index+0.2得到初始类别矩阵Index0,计算Indexnew=Index0×diag[[diag(Index0T×I×Index0)]-1]-1/2,将Indexnew赋给Index0,再次 计算Indexnew=Index0×diag[[diag(Index0T×I×Index0)]-1]1-/2,将Indexnew赋给Index0,重复Ne次,Ne∈[1,10000],得到最终的Indexnew,大小为Na×C,计算Indexnew每行最大值所在的第cg列,将最终标签Indexfinal对应行置为cg,cg∈[1,2,..,C],Indexfinal大小为Na×1;其中,diag表示提取矩阵的对角线元素;I表示单位向量; 

步骤h3:计算Indexfinal与视频真实类别标签IndexTrue的相同元素个数,除以Na得到视频聚类准确率。 

所述个数聚类G∈[20,10000]。 

所述常数α∈[10-2,102]。 

所述步骤4的步骤h采用归一化互信息NMI方法或者精度Purity方法计算聚类准确率。 

有益效果 

本发明提出的一种利用脑成像空间特征和底层视觉特征进行视频聚类的方法,首先,提取功能磁共振图像序列中的信号向量,其次,计算信号向量的皮尔森相关系数矩阵,利用单因素方差分析和相关特征选择方法从皮尔森相关系数矩阵中提取脑功能成像空间特征,第三,利用视频的底层视觉特征和脑功能成像空间特征建立高斯过程回归模型,用该模型计算出视频库中没有进行功能磁共振成像的视频的脑功能成像空间特征,最后,利用多模态谱聚类算法对底层视觉特征和脑功能成像空间特征进行聚类,得到更高的视频聚类准确率。 

本发明提出的利用脑功能成像空间特征和底层视觉特征进行视频聚类的方法,用功能磁共振图像序列中提取的脑功能成像空间特征和传统的底层视觉特征融合聚类来提高视频的聚类准确性,将人脑认知信息应用到视频聚类中,与传统视频聚类只利用底层视觉特征或者只利用脑功能成像空间特征相比,大大提高了视频聚类的准确率。 

附图说明

图1:本发明方法的基本流程图 

具体实施方式

现结合实施例、附图对本发明作进一步描述: 

用于实施的硬件环境是:Intel(R)Core(TM)2Duo CPU2.93GHz、2GB内存、256M显卡,运行的软件环境是:Matlab2009a和Windows7。我们用Matlab软件实现了本发明提出的方法。 

本发明具体实施如下: 

1提取脑功能成像空间特征: 

对N个的功能磁共振图像序列提取脑功能成像空间特征,N=51,功能磁共振图像序列由测试者观看N个视频时利用功能磁共振成像技术测得,视频来自TRECVID2005媒体库。 

该功能磁共振图像序列采集在3T GE信号采集器上完成,测试参数为:功能磁共振扫描:64×64矩阵;层厚为4mm;视场为220mm;30层;TR为1.5s;TE为25ms;ASSET为2。 

选取功能磁共振图像序列中大脑M个区域的功能磁共振成像信号,M=358。这些区域包括工作记忆区域、视觉网络区域、听力和语言区域等,对第i个功能磁共振图像序列,提取功能磁共振图像序列上大脑M个区域信号向量Si,j=[si,j,1,Si,j,2,...,si,j,r,...Si,j,n],i=1,2,..,N,j=1,2,...,M,计算Si,j的皮尔森相关系数矩阵Pi,利用单因素方差分析和相关特征选择方法从N个皮尔森相关系数矩阵Pi中提取脑功能成像空间特征Ci。具体步骤如下: 

(1)利用公式>pi,j,k=Σsi,j,rsi,k,r-Σsi,j,rΣsi,k,rn(Σsi,j,r2-(Σsi,j,r)2n)(Σsi,k,r2-(Σsi,k,r)2n)>计算信号向量Si,j=[Si,j,1,Si,j,2,...,Si,j,r,...Si,j,n]和Si,k=[Si,k,1,Si,k,2,...,Si,k,r,...Si,k,n]的皮尔森相关系数pi,j,k,得到第i个功能磁共振图像序列的皮尔森相关系数矩阵: 

>Pi=pi,1,1,pi,1,2,...,pi,1,k,...,pi,1,Mpi,2,1,pi,2,2,...,pi,2,k,...,pi,2,M...pi,j,1,pi,j,2,...,pi,j,k,...,pi,j,M...pi,M,1,pi,M,2,...pi,M,k,...pi,M,M>

其中,si,j,r表示信号向量Si,j的第r个元素;si,k,r表示信号向量Si,k的第r个元素;n表示信号向量Si,j和Si,k的长度; 

(2)取皮尔森相关系数矩阵Pi上三角部分,拉伸成向量Qi=[qi,1,qi,2,...,qi,d],d=(M×M)/2-M/2=63903,将N=51个视频的Qi向量按行排列构成矩阵: 

>D=Q1Q2...Qi...QN=q1,1,q1,2,...,q1,dq2,1,q2,2,...,q2,d...qi,1,qi,2,...qi,d...qN,1,qN,2,...qN,d>

其中,qi,1,qi,2,...,qi,d表示Qi中的第1,2,…,d个元素; 

(3)对矩阵D按列进行单因素方差分析,步骤为: 

计算矩阵D每一列元素的均值,将矩阵D的每一列元素减去该列元素均值,得到矩阵: 

>U=U1U2...Ui...UN=u1,1,u1,2,...,u1,du2,1,u2,2,...,u2,d...ui,1,ui,2,...ui,d...uN,1,uN,2,...uN,d>

对矩阵U的第v列Uv,找出属于第K类视频的元素,并计算属于第K类视频的元素均值 对C=3类视频的元素都计算元素均值,构成类内均值向量 >uC=[uv,1,uv,2,...,uv,K,...,uv,C];>利用公式>F=(|L||uC|cosθ)×(N-C)(C-1)×(TSS-(|L||uC|)cosθ)>计累计分布函数参数F,利用公式>g=1-1exp(gam(C-1)+gam(N-C)-gam(N-1))>计算参数g,如果g<T,T=0.0005,保留该第v列;否则,从矩阵U中删除该列,得到经过单因素方差分析选择后的矩阵: 

>B=B1B2...Bi...BN=b1,1,b1,2,...,b1,xb2,1,b2,2,...,b2,x...bi,1,bi,2,...,bi,x...bN,1,bN,2,...bN,x>

其中,C表示视频的类别总数,C=3;L=[l1,l2,..,lK,..lC,]T;lK表示Uv中属于第K类视频的元素个数;θ为两向量 和L间的夹角; 表示Uv的均值;上标T表示转置;exp表示指数函数; g<T中的T表示阈值,T∈(0,10000];下标x表示从U中选取的列向量的个数; 

(4)遍历矩阵B的每一列,利用相关特征选择方法寻找参数 值最高的y列构成的脑功能成像空间特征矩阵: 

>C=C1C2...Ci...CN=c1,1,c1,2,...,c1,yc2,1,c2,2,...,c2,y...ci,1,ci,2,...,ci,y...cN,1,cN,2,...cbN,y>

其中:下标y表示从B中选取的列向量的个数; 表示相关性向量[r1,w,r2,w,...,rs,w,...,ry,w]的均值;rs,w表示矩阵C的第s个列向量Cs与类别标签向量W=[1,1,1,...2,2,2,...,K,K,K,...C,C,C]T的相关性参数;上标T表示取向量转置; >rs,w=2.0×[ΣwhCsp(wh)ΣcshCsp(cs,h|wh)log2(cs,h|wh)-Σcs,hCsp(cs,h)log2p(cs,h)-Σcs,hCsp(cs,h)log2p(cs,h)-ΣwhWp(wh)log2p(wh)];>p(wh)表示wh在W中的概率分布;wh表示向量W中的第h个元素;p(cs,h|wh)表示cs,h在Cs中的条件概率分布;p(cs,h)表示cs,h在Cs中的概率分布;cs,h表示向量Cs中的第h个元素;log2表示以2为底数的对数函数; 表示相关性矩阵: 

>r1,1,r1,2,...,r1,o,...,r1,yr2,1,r2,2,...,r2,o,...,r2,y...rs,1,rs,2,...,rs,o,...,rs,y...ry,1,ry,2,...,ry,o,...,ry,y>

中所有元素的均值;rs,o表示子矩阵C的第s个列向量Cs与第o个列向量Co的相关性参数;>rs,o=2.0×[Σco,hCop(co,h)Σcs,hCsp(cs,h|co,h)log2p(cs,h|co,h)-Σcs,hCsp(cs,h)log2p(cs,h)-Σcs,hCsp(cs,h)log2p(cs,h)-Σco,hCop(co,h)log2p(co,h)];>co,h表示向量Co中的第h个元素;p(co,h)表示co,h在Co中的概率分布;p(cs,h|co,h)表示cs,h在Cs中的条件概率分布; 

2提取视频库中所有Na=1307个视频数据的底层视觉特征向量Fvid: 

具体步骤为: 

(1)利用尺度不变特征变换匹配算法提取第id个视频第一帧的Nsi个描述向量集合 FSid={Fsiid,1,Fsiid,2,...,Fsiid,sh,...,Fsiid,Nsi},sh=1,2,...,Nsi,id=1,2,...,Na,Na∈(0,100000],Nsi∈[0,10000],对Na个视频都提取描述向量集合,得到 

提取FSid={Fsiid,1,Fsiid,2,...,Fsiid,sh,...,Fsiid,Nsi}的具体方法为:提取视频库中第id个视频数据的第一帧作为第id个视频的关键帧图像Iid,每个关键帧为代表该视频片段主要内容的一幅图像,对关键帧进行高斯平滑处理,得到图像 其中选取σn=0.5,其中σn为平滑参数,表示平滑程度。对平滑后的图像利用尺度不变特征变换匹配算法提取SIFT特征,特征维数为128,具体方法为:选取不同的σ=σ02o+s/S与 做卷积形成了一个图像金字塔GSSσ,其中s=0,..S-,o=0,...O-1,S=3,O=min(log2 row,log2 col),σ0=1.5,row表示图像的垂直方向上像素点的个数,col表示图像的水平方向上像素点的个数。然后对相邻的GSSσ求差分得到DOGσ,对于DOGσ的每个像素点分别与上一尺度对应像素点及周围的八邻域像素点,当前尺度周围的八邻域像素点,以及下一尺度对应像素点及周围的八邻域像素点作比较,如果该像素点为极小值或者极大值点,则该像素点为图像显著点,其周围以σ为半径的区域为显著区域,由此可以得到一系列的图像显著点X,其相应的σ为其对应的尺度大小λ。对于每个图像显著点X,使 的梯度图像与高斯核做卷积得到梯度图像 其中σG=1.5σ,并计算梯度图像 中以显著点X的显著区域中的方向直方图,其中每个方向直方图区间的幅值计算是对该方向区域内梯度进行累加,取方向直方图的区间个数L=36,从方向直方图选取幅度超过其最大值80%的方向区域,确定为该特征区域主方向θ,如有多个方向区域,则该特征区域存在多个主方向θ。最后取图像显著点X的显著区域,按主方向及其垂直方向等分成16个区域,在每个小区域中分别统计方向直方图,其中每个方向直方图区间的幅值计算是对该方向区域内梯度赋值进行累加,取方向直方图的区间个数L=8,并将每个方向直方图的幅值量化到[0,255]之间,得到一个16×8=128的描述向量Fsiid,sh。对每个关键帧图像进行计算得到满足上述条件的Nsi个显著点的描述向量集合FSid={Fsiid,1,Fsiid,2,...,Fsiid,sh,...,Fsiid,Nsi},sh=1,2,...,Nsi。对Na个视频都提取描述向量集合,得到 

(2)利用k均值算法对 进行聚类,聚类个数为G=65;k均值 算法具体步骤为: 

1)从 中随机选取65个描述向量作为初始中心点,记为F[1],F[2],...F[65],计算65个初始中心点之外的描述向量F={f1,f2,...,f65}与65个初始中心点F[i]={f[i]1,f[i]2,...,f[i]65}的欧式距离,公式如下: 

>L=(f1-f[i]1)2+(f2-f[i]2)2+...+(f120-f[i]120)2>

其中,L表示两个描述向量之间的欧式距离,f1,f2,...,f65表示描述向量F的65维上的数值,f[i]1,f[i]2,...,f[i]65表示初始中心点F[i]65维上的数值。 

2)如果F={f1,f2,...,f65}与F[i]={f[i]1,f[i]2,...,f[i]65}距离最接近,则将此描述向量归到第i类,重新计算每一类中描述向量的平均值,即对该类中所有描述向量的每一维取平均,得到新的中心点F[i]′。 

3)将F[i]′赋给F[i],作为新的初始中心点重复计算65个初始中心点之外的描述向量F={f1,f2,...,f65}与65个初始中心点F[i]={f[i]1,f[i]2,...,f[i]65}的欧式距离,直到F[i]′与F[i]的欧式距离小于0.00000l为止。 

计算 中分别属于G类的向量个数 得到第id个视频的底层视觉特征向量:FVid=[Numid,1,Numid,2,...,Numid,G]; 

3 用高斯过程回归预测Na-N个视频数据的脑功能成像空间特征向量: 

利用脑功能成像空间特征矩阵: 

>C=C1C2...Ci...CN=c1,1,c1,2,...,c1,yc2,1,c2,2,...,c2,y...ci,1,ci,2,...,ci,y...cN,1,cN,2,...cbN,y>

和其对应N个视频数据的底层视觉特征[FV1,Fv2,...,FVidp,...,FvN],idp=1,2,...,N,建立高斯过程回归模型GPM,利用高斯过程回归模型GPM预测Na-N个视频数据的脑功能成像空间特征向量: 

>CN+1CN+2...CNa=cN+1,1,cN+1,2,...,cN+1,ycN+2,1,cN+2,2,...,cN+2,y...cNa,1,cNa,2,...,cNa,y>

具体步骤如下: 

(1)选取高斯核函数: 

>kng,mg=k(Fvng,Fvmg)=θ0exp{-12Σug=1Gηug(fvng,ug-fvmg,ug)2}+θ1>

选取相关系数计算公式: 

cfng,mg=cf(Fvng,Fvmg)=kng,mg-1δng,mg

其中,Fvng、Fvmg表示N个视频数据中任意两个视频数据的底层视觉特征向量,ng=1,2,...N,mg=1,2,...N;θ0、ηu,θ1表示高斯核函数中的超参数;fvng,ug、fvmg,ug表示Fvng、Fvmg中第ug维上的数值,ug=1,2,...,G;c(Fvng,Fvmg)表示向量Fvng和Fvmg之间的相关系数;β表示随机噪声;>δng,mg=1ng=mg0ngmg;>

(2)对脑功能成像空间特征 

>C=C1C2...Ci...CN=c1,1,c1,2,...,c1,yc2,1,c2,2,...,c2,y...ci,1,ci,2,...,ci,y...cN,1,cN,2,...cbN,y>

第cb=1,2,...,y维构建方程组: 

>c1,cb=K1C1-1t1,cbc2,cb=K2C2-1t2,cb...ci,cb=KiCi-1ti,cb...cN,cb=KNcN-1tN,cb>

计算第cb维脑功能成像空间特征对应的超参数θ0、ηu和θ1。其中,ci,cb表示第i个 视频数据的脑功能成像空间特征的第cb个元素,cb=1,2,;Ki=[ki,1,ki,2,...,ki,i-1,ki,i+1,...,ki,N]; 

其中, Ci=[cf(FVng,FVmg)],ng=1,2,...,i-1,i+1,...N,mg=1,2,...,i-1,i+1,...N,ti,cb=(fv1,cb,fv2,cb...,fvi-1,cb,fvi+1,cb,...,fvN,cb)T;vb1,cb,fv2,cb,fvi-1,cb,fvi+1,cb和fvN,cb分别表示第1、2、i-1、i+1和N个视频的底层视觉特征向量中的第cb个元素; 

(3)利用超参数对Na-N个脑功能成像空间特征未知的视频数据第cb=1,2,...,y维脑功能成像空间特征向量进行预测,计算公式如下: 

>cN+1,cb=KN+1CN+1-1tN+1,cbcN+2,cb=KN+2CN+2-1tN+2,cb...cs,cb=KsCs-1ts,cb...cNa,cb=KNaCNa-1tNa,cb>

其中,Ks=[ks,1,ks,2,...,ks,N],ks,1=k(FVs,Fvl),s=N+1,...,Na,Cs=[cf(FVnge,FVmge)],nge=N+1,...,Na,mge=N+1,...,Na, fvN+1,cb,fvN+2,cb和 分别表示第N+1、N+2和Na个视频的底层视觉特征向量中的第cb维特征; 

4 利用Na个脑功能成像空间特征[C1,C2,...,Cid,...,CNa]和底层视觉特征[FV1,Fv2,...,FVid,...,FVNa]进行多模态谱聚类,得到l到Na个视频的类别标签向量Indexfinal,并计算Indexfinal的聚类准确率: 

具体步骤如下: 

(1)将Cid=(cid,1,cid,2,...,cid,y)视为空间中的一个点, 找到[C1,C2,...,Cid,...,CNa,]中与cid欧氏距离最近的k个点,k=[1,10000],定义Cid与其欧氏距离最近的k个点之间的关系为近邻关系;同理,将脑功能成像空间特征Fvid=(fvid,1,fvid,2,...,fvid,y)视为空间中的一个点,找到[Fv1,Fv2,...,Fvid,...,FvNa]中与Fvid欧氏距离最近的k个点,定义Fvid与其欧氏距离最近的k个点之间的关系为近邻关系; 

其中:cid,1,Cid,2,...,cid,表示脑功能成像空间特征Cid中的第l、2和y个元素;fvid,1,fvid,2,...,fvid,y表示底层视觉特征Fvid中的第1、2和y个元素; 

(2)如果Cid和Cjd是近邻关系, jd=1,2,...,Na利用 计算Cid和Cjd之间的权重CWeightid,jd,得到权重矩阵: 

>CWeight=CWeight1,1,CWeight1,2,...,CWeight1,jd,...,CWeight1,NaCWeight2,1,CWeight2,2,...,CWeight2,jd,...,CWeight2,Na...CWeightid,1,CWeightid,2,...,CWeightid,jd,...,CWeightid,Na...CWeightNa,1,CWeightNa,2,...,CWeightNa,jd,...,CWeightNa,Na>

在矩阵CWeight中令CWeightid,id=0;同理,如果特征Fvi和Fvj是近邻关系,利用 计算Fvi和Fvj之间的权重FvWeightid,jd,得到权重矩阵: 

>FvWeight=FvWeight1,1,FvWeight1,2,...,FvWeight1,jd,...,FvWeight1,NaFvWeight2,1,FvWeight2,2,...,FvWeight2,jd,...,FvWeight2,Na...FvWeightid,1,FvWeightid,2,...,FvWeightid,jd,...,FvWeightid,Na...FvWeightNa,1,FvWeightNa,2,...,FvWeightNa,jd,...,FvWeightNa,Na>

在矩阵FvWeight中令FvWeightid,id=0; 

其中:Cid和Cjd表示第id个视频和第jd个视频的脑功能成像空间特征向量;∏表示连乘积;cid,l和cjd,l表示Cid和Cjd的第l个元素;l=1,2,...,y;σl表示一个常数,σl=0.05;Fvid和Fvjd表示第id个视频和第jd个视频的底层视觉特征向量;Fvid,l和Fvjd,l表示Fvid和Fvjd的第l个元素; 

(3)利用公式>LC=DC-CWeightLFv=DFv-FvWeight>计算CWeight和FvWeight的拉普拉斯矩阵;利用公式Lmulti-modal=LC+αI+LFv+αI计算多模态拉普拉斯矩阵Lmulti-modal,大小为Na×Na; 

其中:LC和LFv表示矩阵CWeigh和FvWeight的拉普拉斯矩阵;DC表示 [C1,C2,...,Cid,...,CNa]中两两脑功能成像空间特征向量之间的欧式距离所构成的矩阵;DFv表示[Fv1,Fv2,...,Fvid,...,FvNa]中两两底视觉层特征向量之间的欧式距离所构成的矩阵;I表示单位矩阵,大小为Na×Na;α表示常数,α∈[10-2,102]; 

(4)计算多模态拉普拉斯矩阵Lmulti-modal的特征值和特征向量,将特征值从大到小排列,选取前C个特征值对应的特征向量Vecto1,Vector2,...,VectorC,构造矩阵VecMatrix=[Vector1,Vector2,...,VectorC],大小为Na×C,计算矩阵VecMatrix每一行的和,然后用该行元素分别除以该行元素的和,得到矩阵VecMatrixNew,大小为Na×C;其中:C表示视频库中视频类别个数; 

(5)将VecMatrixNew每行中值最大的元素置为1,其余元素置为0,得到 

(6)将VecMatrixNew1的每一行视为高维空间中的一个点,用光谱旋转算法对VecMatrixNew1矩阵中的Na个点进行聚类,得到类别矩阵Index,大小为Na×C;光谱旋转算法步骤为:计算VecMatrixNew2=VecMatrixNew×VecMatrixNewT;对 中每个元素求-1/2方,得到VecMatrixNew3;将VecMatrixNew3中除对角线元素外都置为0,得到VecMatrixNew4; 

计算VecMatrixNew5=VecMatrixNew4×VecMatrixNew; 

计算VecMatrixNew6=VecMatrixNew5T×VecMatrixNew1; 

对VecMatrixNew6进行SVD分解,得到矩阵USVD,dSVD,VSVD;计算QSvD=USVD×VSVDT;计算MSVD=VecMatrixNew5×QSVD;将MSVD每行中最大元素置为1,其余置为0,得到M1SVD;将M1S V赋给VecMatr1;重新计算VecMatrixNew6=VecMatrixNew5T×VecMatrixNew1;重复计算30次,得到M1SVD,将其赋给Index; 

(7)利用公式Index0=Index+0.2得到初始类别矩阵Index0,计算Indexnew=Index0×diag[[diag(Index0T×I×Index0)]-1]-1/2,将Indexnew赋给Index0,重复Ne次,Ne∈[1,10000],得到最终的Indexnew,大小为Na×C,求出Indexnew每行最大 值所在的第cg列,将最终标签Indexfinal对应行置为cg,cg∈[1,2,..,C],Indexfinal大小为Na×1;其中,diag表示取矩阵的对角线元素;I表示单位向量; 

(8)比较Indexfinal与视频真实类别标签IndexTrue,计算准确率,采用三种方法来计算准确率,分别是:聚类准确率ACC、归一化互信息NMI和精度。 

聚类准确率ACC:对比Indexfinal与视频真实类别标签IndexTrue的对应元素,找出两者相同的个数,除以Na=1307得到聚类准确率; 

归一化互信息NMI: 

1)计算>Indexfinalnew=Indexfinal-min(Indexfinal)+1IndexTruenew=IndexTrue-min(IndexTrue)1,>其中,min(Indexfinal)表示取Indexfinal的最小值;min(IndexTrue)表示取IndexTrue的最小值; 

2)找出Indexfinalnew和IndexTruenew中属于3类视频的个数,构成矩阵: 

>IndexG=IndexG1,1,IndexG1,2IndexG1,13IndexG2,1IndexG2,2IndexG2,3IndexG3,1IndexG3,2IndexG3,3>

其中,IndexG1,1表示Indexfinalnew中属于第一类、并且IndexTruenew中属于第一类的视频的个数,其余元素同理。 

3)计算向量Pm和Pn,公式如下: 

>Pm=Pm1Pm2Pm3=IndexG1,1+IndexG1,2+IndexG1,3IndexG2,1+IndexG2,2+IndexG2,3IndexG3,1+IndexG3,2+IndexG3,3>

>Pn=Pn1Pn2Pn3=IndexG1,1+IndexG2,1+IndexG3,1IndexG1,2+IndexG2,2+IndexG3,2IndexG3,1+IndexG2,3+IndexG3,3>

4)计算 

H1=∑-Pm/sumIndex×log2(-Pm/sumIndex) 

H2=∑-Pn/sumIndex×log2(-Pn/sumIndex) 

其中,sumIndex表示IndexG中元素之和; 

5)计算Pmn=IndexG/sumIndex; 

6)计算>PPP=Pmn/Pn1,Pn2,Pn3Pn1,Pn2,Pn3Pn1,Pn2,Pn3/Pm1,Pm1,Pm1Pm2,Pm2,Pm2Pm3,Pm3,Pm3,>将PPP中绝对值小于10-12的元素值置为1; 

7)计算MI=sum(Pmn×log2PPP),其中sum(Pmn×log2PPP)表示对Pmn×log2PPP求和; 

8)计算MIhat=MI/max(H1,H2),其中,max(H1,H2)表示取H1,H2中的最大值;MIhat即为归一化互信息; 

精度Purity: 

找出Indexfinal中属于第一类视频的标签序号,在IndexTrue对应序号位置提取其元素,统计这些元素中个数最多的标签数目Index1;同理,对第二类视频、第三类视频进行同样的计算,得到Index2,Index3,计算精度Purity=(Index1+Index2+Index3)/Na; 

表1 

   聚类准确率   归一化互信息   精度   底层视觉特征   0.4429   0.0921   0.4736   脑功能成像空间特征   0.5151   0.1141   0.5151   两者融合   0.5495   0.1167   0.5495

利用本文算法进行视频聚类,并利用三种方法计算聚类准确率,如表1所示,结果显示脑功能成像空间特征和底层视觉特征融合进行视频聚类能大大提高视频聚类的准确率,为视频聚类问题提供了新的解决思路。 

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号