首页> 中国专利> 多特征融合的粒子滤波视频目标跟踪方法

多特征融合的粒子滤波视频目标跟踪方法

摘要

本发明公开了一种多特征融合的粒子滤波视频目标跟踪方法,属于视频目标跟踪领域。该方法先对粒子进行初始化定位,确定目标的初始状态,并提取目标的颜色特征信息和运动边缘特征信息,再对粒子的状态进行传播,然后分别求出颜色特征信息和运动边缘特征信息的观测值概率密度函数,将两者融合后通过粒子归一化对粒子权重进行更新,接着计算当前时刻目标状态的最小均方差估计,通过重采样机制后置时间为下一时刻,转到粒子传播阶段进行新一轮循环,直至视频序列结束。本方法在目标被遮挡或相似背景干扰下均能对目标实现持续准确地跟踪,提高了算法的准确性和鲁棒性。

著录项

  • 公开/公告号CN102722702A

    专利类型发明专利

  • 公开/公告日2012-10-10

    原文格式PDF

  • 申请/专利权人 河海大学;

    申请/专利号CN201210169345.0

  • 发明设计人 曹宁;李成功;王娴珏;万琪;

    申请日2012-05-28

  • 分类号G06K9/00(20060101);

  • 代理机构32200 南京经纬专利商标代理有限公司;

  • 代理人许方

  • 地址 211100 江苏省南京市江宁区佛城西路8号

  • 入库时间 2023-12-18 06:52:28

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2018-06-12

    未缴年费专利权终止 IPC(主分类):G06K9/00 授权公告日:20150128 终止日期:20170528 申请日:20120528

    专利权的终止

  • 2015-01-28

    授权

    授权

  • 2012-12-05

    实质审查的生效 IPC(主分类):G06K9/00 申请日:20120528

    实质审查的生效

  • 2012-10-10

    公开

    公开

说明书

技术领域

本发明涉及一种视频目标跟踪方法,尤其涉及一种多特征融合的粒子滤波视频运动目标 跟踪方法,属于视频监控技术中的视频目标跟踪领域。

背景技术

视频目标跟踪是指对图像序列中的运动目标进行检测、提取、识别和跟踪的过程,以 获得目标的运动参数,如位置、速度、加速度以及运动轨迹等。视频目标跟踪在视频监控、 体育运动事件分析、跟踪实验动物、人机交互等方面都有实际应用需求。现有的目标跟踪 方法主要包括:基于区域的跟踪、基于特征的跟踪、基于轮廓线的跟踪、基于模型的跟踪、 基于运动场估计的跟踪以及混合方式的跟踪方法等。

近年来,粒子滤波(Particle Filter)算法被认为是目前解决非线性、非高斯模型最成 功的方法。粒子滤波算法是一种基于蒙特卡洛(Monte Carlo)技术来求解贝叶斯概率的使 用算法,它的基本思想是通过重要性函数产生带权值的样本(粒子)来逼近系统状态的真 实后验概率分布。这些粒子是在选取的重要性概率密度函数的基础上随机抽样得到的,然 后通过预测和更新两个步骤对目标的状态进行估计。但是单一特征的目标跟踪效果往往受 到跟踪目标外在因素的很大影响,如使用单一颜色特征信息来进行目标跟踪,方法快捷且 容易实现,但在跟踪过程中由于目标所处的位置、光照等易发生变化,这会影响跟踪效果, 从而造成算法的鲁棒性不高。

发明内容

本发明针对现有技术的不足,而提出一种多特征融合的粒子滤波视频目标跟踪方法,以 提高算法的准确性和鲁棒性。

该视频目标跟踪方法包括如下步骤:

步骤1:在最初时刻对一组粒子进行初始化定位,确定目标的初始状态,提取目标的颜 色特征信息和运动边缘特征信息;

步骤2:采用一阶AR模型对粒子的状态进行传播,得到下一时刻的新粒子;

步骤3:分别求出当前粒子采样时刻颜色特征信息和运动边缘特征信息的观测值的概率 密度函数,将两种概率密度函数融合,并通过粒子归一化对粒子权重进行更新;

步骤4:计算当前粒子采样时刻目标状态的最小均方差估计;

步骤5:计算重采样判断值,当重采样判断值小于等于重采样判决阀值时,对当前的采 样粒子进行重采样,否则转入步骤6;

步骤6:置时间为下一时刻,转入步骤2,直至视频序列结束。

技术效果:

1、本方法将两种目标特征信息相互融合,从而结合了两种特征信息的优点,提高了方法 的有效性。

2、在目标被完全遮挡或相似背景干扰下,本方法均能实现对目标持续、准确地跟踪,方 法准确性和鲁棒性较高。

附图说明

图1为本发明的方法流程图。

图2为提取颜色特征信息的算法流程图。

图3为运动边缘特征信息的计算原理示意图,图中:P表示各粒子落入相应角度区间的 概率,θ表示角度。

具体实施方式

下面对本发明作进一步说明。

本发明方法的流程如图1所示,具体步骤如下:

步骤1:粒子初始化阶段。

设时间t=0时刻,采用手工标定的方式对一组在状态空间中传播的粒子进行初始化定位, 定义目标的初始状态为并提取目标的颜色特征信息和运动边缘特征信息。

步骤2:粒子传播阶段。

采用一阶AR模型对粒子的状态进行传播,从而得到下一时刻的新粒子。

在t=t+1时,新粒子式中:A为系数矩阵,这里A取4阶单位阵;是 均值为零的高斯白噪声。

步骤3:权值更新阶段。

分别求出当前粒子采样时刻颜色特征信息和运动边缘特征信息的观测值的概率密度函 数,将两种概率密度函数融合,并通过粒子归一化对粒子权重进行更新。

提取颜色特征信息的算法流程如图2所示。本方法采用基于RGB颜色空间模型的核加权 颜色特征直方图对目标进行建模,其中,核函数的基本思想是:根据像素点与目标中心的距 离远近对其(像素点)赋予不同的权值。对距离目标中心较远的像素点赋予比较小的权值, 从而减弱跟踪目标模块边界及遮挡等问题带来的干扰。

高斯核函数定义如下:

k(r)=exp{-r2/(2σ2)}

式中:r表示像素点与目标中心之间的距离;参数σ用以控制核函数的作用半径,这里 σ=1。

对于选定的目标区域内的各像素点{xi,i=1...M},M为目标区域内像素点的总数。设m 为量化阶数,且定义颜色量化函数b(xi):R2→{1,2,...,m},这里m=32。则第i个像素点颜色 粒子所对应区域的核加权颜色特征直方图p(x)={pu(x)}u=1,2,...,m可定义为:

pu(x)=AΣi=1Mk(||x-xih||2)δ(b(xi)-u)

式中:A′为归一化因子,用来保证即M为目标区域 内像素点的总数,这里M=400;k(·)为高斯核函数;x为目标区域中心像素点;xi为目标区 域中的某一像素点;h表示目标区域的大小,这里||x-xi||2表示xi与x之间的距离; δ(·)为Dirac-delta函数。

对于候选区域所对应的核加权颜色特征直方图q(x)={qu(x)}u=1,2,...,m也可采用上述同样的 计算方法。

Bhattacharyya系数是建立两概率分布相似性度量的有效工具,则对于目标区域和候选区 域的核加权颜色特征直方图,两者之间的相似性可用Bhattacharyya系数来衡量,可定义为:

ρ[p(x),q(x)]=Σu=1mpu(x)qu(x)

d[p(x),q(x)]=1-ρ[p(x),q(x)]

式中:ρ值越大表示目标区域与候选区域之间的相似性越高,当ρ=1时,即两个区域的 核加权颜色特征直方图完全一样。

由此得出基于颜色特征信息的观测值的概率密度函数:

pcolor(zt|xt,colori)=12πσexp{-(d[p,q])22σ2},这里σ=0.25。

图3以图表方式简单示意了运动边缘特征信息的计算原理。为了适应目标光照变化以及 背景中相似颜色的干扰,仅使用颜色特征无法达到理想的跟踪效果,因此本方法引入了运动 边缘特征。利用相邻两帧图像之间的目标区域运动特征,生成差分图像进行梯度求解得到图 像运动边缘信息,从而在复杂背景下达到更好的目标跟踪效果。

假设视频中连续的两帧图像分别记为Rt和Rt+1,对两帧图像进行差分处理,得到差分图 像Dt=|Rt+1-Rt|,对Dt进行梯度求解,得到时刻t的图像运动边缘信息Et

Et=Dt=DtxDtyT

式中:和分别为跟踪区域中心点在x方向和y方向上的速度值。

由此可得Et的方向角θ:

θ=arctan(Dtx/Dty),θ的取值范围为0~2π。

对方向角θ进行量化,分成n等份i=1,2,...,n,这里n=16,

结合直方图公式统计落入各个角度区间的像素梯度幅度值,并 对其进行归一化处理,得到目标区域的运动边缘方向直方图其中 (x,y)为目标区域的中心点坐标。运用同样的计算方法,得到候选区域的运动边缘方向直方图 Ft(x,y)。则该目标区域的运动特征定义如下:

Qt=ΣxΣyFt(x,y)/ΣxΣyPt(x,y)

候选区域的Qt值越接近于1,说明该候选区域与目标区域的相似度越高。利用Qt值得出 基于运动边缘特征信息的观测值的概率密度函数:

pmotion(zt|xt,motioni)=12πσexp(-d22σ2)

式中:这里σ=0.25。

将颜色特征信息和运动边缘特征信息融合,假设颜色特征信息和运动边缘特征信息的观 测过程是相互独立的,则定义融合后的概率密度函数为:

p(zt|xti)=w1pcolor(zt|xt,colori)+w2pmotion(zt|xt,motioni)

式中:w1、w2均为自适应的归一化权值,即

定义i=1,2,式中:di,min(i=1,2)分别表示d[p(x),q(x)]的最小值以及d的最 小值,d[p(x),q(x)]为t时刻颜色特征信息中目标区域与候选区域之间的Bhattachaya距离, d为根据运动边缘特征信息得到的相似度距离。对进行归一化得到wi,即:

wi=w~iw~1+w~2

根据融合后的概率密度函数,结合权值更新公式表示t时刻i粒子 的权值,通过粒子归一化公式对粒子权重进行更新求解,式中N为跟踪过程中的 粒子总数,下同。

步骤4:状态估计阶段。

计算t时刻(当前粒子采样时刻)目标状态的最小均方差估计

步骤5:判断重采样阶段。

计算重采样判断值根据Neff判断是否需要对当前的跟踪目标采样粒子进 行重采样,当Neff≤Nthres时进行重采样,否则不进行重采样,转入步骤6,Nthres为重采样判 决阀值,该值可根据经验得到。

步骤6:置时间t=t+1,转入步骤2进行新一轮循环,直至视频序列结束,本方法结束。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号