首页> 中国专利> 基于属性关系图外观模型的多人体跟踪方法

基于属性关系图外观模型的多人体跟踪方法

摘要

针对固定监控场景中多人体跟踪问题,本发明提出了一种基于属性关系图外观模型的多人体跟踪方法。首先对当前帧人体检测区域建立属性关系图外观模型,计算与上一帧跟踪人体的属性关系图外观模型的相似度,根据相似度确定帧间人体的匹配,从而确定人体跟踪情况及获取运动轨迹。本发明提出的方法能大大提高固定监控场景中多人体跟踪的准确性、可靠性、实时性。

著录项

  • 公开/公告号CN101561928A

    专利类型发明专利

  • 公开/公告日2009-10-21

    原文格式PDF

  • 申请/专利权人 湖南大学;

    申请/专利号CN200910043537.5

  • 发明设计人 王耀南;万琴;余洪山;朱江;

    申请日2009-05-27

  • 分类号G06T7/00(20060101);

  • 代理机构43114 长沙市融智专利事务所;

  • 代理人颜勇

  • 地址 410082 湖南省长沙市岳麓区岳麓山麓山南路2号

  • 入库时间 2023-12-17 22:53:02

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2013-07-10

    未缴年费专利权终止 IPC(主分类):G06T7/00 授权公告日:20110914 终止日期:20120527 申请日:20090527

    专利权的终止

  • 2011-09-14

    授权

    授权

  • 2009-12-16

    实质审查的生效

    实质审查的生效

  • 2009-10-21

    公开

    公开

说明书

技术领域

本发明涉及的是固定监控场景中多人体跟踪方法,具体是一种基于属性关系图外观模型的多人体跟踪方法。

背景技术

在银行、酒店、地铁等安全要求较高的公共场所,需要及时发现具有异常行为的可疑人。目前这些场所中大多采用摄像机固定的方式监控场景,因此计算机视觉监控需要在固定场景下实现对多个人体复杂运动情况的准确跟踪,这也是后续行为理解、异常行迹分析等高层视觉处理的基础。由于跟踪过程即是识别监控视频连续帧中的不同人体,而人体外观特征是大多数情况下区别不同人体的重要依据,因此基于人体外观模型的跟踪方法受到广泛关注。目前,基于外观模型跟踪人体的方法主要有三种:1)颜色直方图方法:在人体外观特征中,颜色是一个重要线索,传统的建立外观模型的方法是采用颜色直方图。但是,由于颜色直方图仅得到颜色统计值而丢失了空间信息,容易引起错误,如一身着红色上衣、绿色裤子的人和一身着绿色上衣、红色裤子的人,对他们的外观建立的颜色直方图是几乎完全一致的,无法仅根据其颜色直方图区别出两人。2)颜色直方图与空间信息结合的方法:在计算颜色直方图时加入空间信息,如提出将人体形状分割为三个部分,对各部分用颜色直方图描述其颜色特征,并用Condensation(聚缩)算法实现人体跟踪,但是,这种方法缺乏对人体各部分间结构关系的描述,跟踪准确性、可靠性低;3)颜色相关图方法:颜色相关图用共生矩阵计算两像素之间相隔某距离的概率。颜色相关图虽然能够反映不同颜色对之间的空间相关性,但是由于需要采用三维数组表征不同颜色对及其距离,使得此方法计算复杂度很高,无法用于实时监控跟踪,并且文献中缺乏对目标运动情况的分析,影响跟踪准确性。

因此,基于外观模型跟踪人体的方法存在的主要问题有:怎样建立更准确的外观模型描述人体、如何提高多人体跟踪的准确性。

发明内容

发明所要解决的技术问题是提出一种基于属性关系图外观模型的多人体跟踪方法,将人体外观颜色、空间结构等特征结合,建立更准确有效的人体外观模型,在监控场景固定的情况下,提高多人体跟踪的准确性、有效性。

为实现上述目的,本发明的技术方案为:

一种基于属性关系图外观模型的多人体跟踪方法,其特征在于,包括以下步骤:

1)连续获取包含有被跟踪人体的固定场景的图像,对当前帧图像的人体检测区域建立属性关系图外观模型:将检测的人体区域分为头部、上身和下肢三个身体部分;属性关系图外观模型的每一个节点对应一个所述的身体部分,节点属性表征身体部分的特征,由以下三个量表示:对应身体部分的标记、颜色直方图、外接矩形框中心点坐标;属性关系图外观模型的边由连接人体任两个身体部分的中心点的直线段表示,边属性采用直线段的长度和角度表示;

2)计算当前帧检测人体的属性关系图外观模型与上一帧跟踪人体的属性关系图外观模型的相似度;

3)根据计算所得的相似度跟踪当前帧人体。

所述的节点属性定义为Δ(θi)={ωi,pi,histi},其中,ωi表示第i个被跟踪对象的身体部分的标记:头、上身、下肢分别标记为“head”、“up”和“low”;pi表示第i个被跟踪人体的身体部分外接矩形框的中心点坐标;histi为第i个被跟踪人体的身体部分的颜色特征,histi用归一化的HSV空间一维颜色直方图表示为:histi=9H+3S+V;其中,H、S、V表示像素点在HSV空间中三分量H、S、V的取值;

边属性定义为:r(θi,θj)={rl,rg}(i≠j),其中rl为长度属性,表示两个节点θi和θj间的直线段长度,采用节点属性中的中心点间的欧式距离表示:rl=|pi-pj|,pi、pj分别表示节点θi和θj的属性中的中心点坐标;rg为角度属性,表示这两个节点θi和θj间的直线段角度,rg=arcsinyi-yjrl,其中yi、yj是节点θi、θj的属性中的中心点y方向坐标,rg的取值范围为[0,π];

所述的相似度定义如下:

τ(G,G^)=Σiλ1δ1(Δ(θi),Δ(θ^i))+ΣiΣjλ2δ2(r(θi,θj),r^(θ^i,θ^j))(i≠j)

其中,λ1、λ2是权重系数,并且约束条件为:λ12=1,使得相似度τ在区间[0,1]之内,δ1(Δ(θi),表示G和中对应同类身体部分的节点间的相似度,δ2(r(θi,θj),是G和中连接两个同类身体部分的边的相似度,G和分别为当前帧检测人体的属性关系图外观模型与上一帧跟踪人体的属性关系图外观模型;

所述的根据相似度跟踪当前帧人体的步骤为:建立匹配矩阵,列出各检测区域与上一帧跟踪人体的相似度:设匹配矩阵的行号代表当前帧人体检测区域,列号代表上一帧跟踪人体,将属性关系图外观模型的匹配度τnm作为矩阵元素值记录,n表示当前帧检测人体的序号,m表示前一帧跟踪人体的标记,然后根据匹配阈值τ0确定是否匹配,匹配结果为

通过匹配矩阵的情况,确定当前帧中多人体的跟踪状态、获取人体运动轨迹,并更新其外观模型;匹配情况归纳为四种:

1)新人体出现:第n行中τ′nm均为0:且持续连续三帧,则认为是“新人体”出现,检测人体n为新出现人体,分配新标记,建立其属性关系图外观模型,开始跟踪该人体;

2)正常跟踪:第n行有且仅有一个τ′nm=1的元素:则检测人体n与跟踪人体m匹配,认为是“正常跟踪”,为检测人体n分配标记m,记录其外接矩形框中心点位置,并将检测人体n的外观模型作为跟踪人体m更新的属性关系图外观模型;

3)遮挡跟踪:第n行出现多个元素τ′nm=1:则认为是“遮挡跟踪”,检测人体n是由多个遮挡人体组成,被遮挡的人体为τ′nm=1的元素所在列对应的跟踪人体;

4)人体消失:第m列元素τ′nm均为0:且该情况在连续三帧出现,则认为是“人体消失”,即跟踪人体m消失,从跟踪序列中删除该人体。

作为改进,在遮挡情况下,采用卡尔曼滤波器预测遮挡人体的位置,从而确定各遮挡人体的属性关系图外观模型,完成遮挡情况下的跟踪。

本发明首先对当前帧检测出的人体连通区域建立属性关系图描述人体外观特征,再计算与上一帧跟踪人体的属性关系图外观模型的相似度,通过相似度判定帧间人体匹配情况,根据不同匹配情况跟踪人体,从而实现连续帧中的多人体跟踪。具体内容如下:

(1)对检测到的人体建立属性关系图外观模型

本发明提出利用属性关系图建立人体外观模型。首先将检测到的人体区域按身体比例划分为头部、上身、下肢三个部分,属性关系图外观模型的节点表示身体部分,节点属性定义为身体部分的标记、颜色直方图、外接矩形框中心点坐标,属性关系图外观模型的边表示为连接人体任两个身体部分的直线段,边属性采用直线段的长度、角度定义。

(2)计算人体属性关系图外观模型的相似度

为了度量帧间多人体外观模型的相似度,需要计算属性关系图外观模型相似度。由于属性关系图相似度包括节点属性相似度、边属性相似度,本发明根据节点属性、边属性的定义,分别分析、计算节点属性、边属性中各属性特征的相似度,从而推导得出人体属性关系图外观模型相似度。

(3)根据不同匹配情况跟踪多人体

依据帧间人体属性关系图外观模型的相似度,建立匹配矩阵,分析得出帧间人体的匹配情况包含四种:新人体出现、人体消失、正常跟踪、遮挡跟踪。分别根据不同的匹配情况跟踪人体,如是“遮挡跟踪”情况,由于无法检测遮挡人体的位置,采用Kalman滤波器预测遮挡人体在当前帧的位置,从而建立遮挡人体的属性关系图外观模型,实现遮挡情况下的多人体跟踪。

有益效果:

与现有技术相比,本发明的优越性体现在:

1、提出用属性关系图建立人体外观模型,不仅能表征人体各身体部分的颜色及空间特征,而且描述了各身体部分间的结构关系,能更准确地描述人体外观特征,从而大大提高了后续多人体跟踪的准确性;

2、根据人体属性关系图外观模型的定义,通过分析属性关系图外观模型的节点属性、边属性中各属性特征的相似度,推导计算出属性关系图外观模型的相似度,使得相似度计算更为简便、有效;

3、根据推导计算的属性关系图外观模型相似度,建立匹配矩阵分析了连续帧间多人体的四种匹配情况,并据此实现不同情况下的多人体跟踪,获取运动轨迹,从而能更有效地实现复杂情况下多人体的跟踪,并且匹配算法复杂度低,提高了跟踪系统的实时性。

附图说明:

图1本发明方法总体流程图

图2构建人体属性关系图外观模型。a)外接矩形框标识人体检测区域;b)每个检测人体分为三个身体部分,并据此建立人体属性关系图外观模型。

图3构建遮挡人体属性关系图外观模型。a)各遮挡人体的预测区域;b)遮挡人体属性关系图外观模型。

图4室内监控视频序列的跟踪结果。a)-f)分别为第71帧、106帧、138帧、176帧、206帧及241帧跟踪结果。

图5跟踪误差图。

具体实施方式

下面结合具体实施例对本发明作进一步详细说明。

实施例1:本实施例的总流程图如图1。

1、对检测到的人体建立属性关系图外观模型

在采用背景减除方法检测出目标前景连通区域后,用外接矩形框标注检测区域(如图2a))。接下来需要对检测区域选取特征并建立人体外观模型,将此模型作为跟踪依据在连续视频帧中跟踪人体。因此,检测区域的特征选取及建立的模型准确与否,直接影响跟踪结果。本发明将人体外观的颜色、空间结构特征相结合,提出用属性关系图建立人体外观模型。

由于只对人体进行跟踪,则前景连通区域的外接矩形框表示人体检测区域。根据人体身体的比例,如图2b)所示,将矩形框内连通区域分为三个部分对应表示头部、上身、下肢,作为属性关系图的节点θi(即i∈{head,up,low});边由连接人体任两个身体部分的直线段表示。则利用属性关系图建立人体外观模型:G={∑Δ,∑r},其中∑Δ={Δ(θhead),Δ(θup),Δ(θlow)}表示节点属性的集合,∑r={r(θhead,θup),r(θup,θlow),r(θhead,θlow)}表示边属性的集合,节点属性及边属性的具体定义如下:

1)定义节点属性:Δ(θi)={ωi,pi,histi}

●ωi表示人体身体部分的标记:头、上身、下肢分别标记为“head”、“up”和“low”;

●pi表示身体部分外接矩形框的中心点;

●histi表示身体部分的颜色特征,采用该身体部分的颜色直方图表示。

选取具有人类视觉特性的HSV空间,将该身体部分中各像素的RGB值转化为HSV值,并为了降低计算复杂度,histi采用归一化的HSV空间一维颜色直方图:

histi=9H+3S+V                      (1)

其中,H、S、V表示像素点在HSV空间中三分量H、S、V的取值。

2)定义边属性:r(θi,θj)={rl,rg}(i≠j)

边属性反映边的特征,用于表征两个节点间的空间结构关系。由于边表示为人体的任两个身体部分间的直线段,则边属性采用该直线段的长度、角度两个属性来表示:

●rl:长度属性表示两个节点θi和θj间的直线段长度,采用节点属性中的中心点间的欧式距离表示:rl=|pi-pj|(pi、pj分别表示节点θi和θj的属性中的中心点坐标);

●rg:角度属性表示这两个节点θi和θj间的直线段角度:

rg=arcsinyi-yjrl,其中yi、yj是节点θi、θj的属性中的中心点y方向坐标,则rg的取值范围为[0,π]。

图2b)所示为人体的属性关系图外观模型,其节点由圆圈表示,边由带箭头的线段表示,其中箭头指向发生属性关系的区域。图中人体中的圆点对应属性关系图的节点,直线对应属性关系图的边。可见,属性关系图外观模型形象地描述了人体的身体部分的结构及模式特征,则所有针对模式之间的计算也相应的转换成为属性关系图外观模型之间的计算。

2、计算人体属性关系图外观模型的相似度

由于跟踪多人体即是在监控视频连续帧中识别不同人体,当对每个人体检测区域采用属性关系图建立外观模型后,多人体跟踪需要在连续帧中匹配不同人体外观模型,因此解决跟踪问题是以获得连续帧间人体属性关系图相似度为基础。

由于属性关系图包含多个节点、边,则属性关系图的相似度计算需在节点属性、边属性的约束下,寻找两个属性关系图之间的一种最优对应关系,这是一个组合优化问题,常用解决方法如判决树搜索、模拟退火算法等。而本发明提出的人体属性关系图中的节点、边表示人体的不同身体部分,它们的属性值反映人体的不同身体部分的特征及结构,因此人体属性关系图的相似度计算只需在对应同类身体部分的节点属性、边属性之间进行,而不是组合优化问题。下面结合本发明定义的人体属性关系图外观模型,给出人体属性关系图外观模型相似度的计算:

设当前帧中某一人体检测区域的属性关系图外观模型为G,前一帧中某一跟踪人体的属性关系图外观模型为的定义与G相同,其节点属性及边属性分别表示为Δ(θ^i)={ω^i,bl^obi,hi^sti},r(θ^i,θ^j)={r^l,r^g}.由于本发明中属性关系图包含三个节点和三个边,并且各个节点、边对应人体的身体部分及其相互结构关系,因此相似度只需要在表示同类人体身体部分的节点和边之间进行,则定义相似度如下:

τ(G,G^)=Σiλ1δ1(Δ(θi),Δ(θ^i))+ΣiΣjλ2δ2(r(θi,θj),r^(θ^i,θ^j)),(ij)---(2)

其中,第一项表示属性关系图外观模型G和中所有对应同类身体部分的节点间的节点属性匹配度,第二项表示所有连接同类身体部分的边之间的边属性的匹配度。λ1,λ2是权重系数,并且约束条件为:∑λ1,2=1,使得相似度τ在区间[0,1]之内,δ1(Δ(θi),表示对应同类身体部分的节点间的相似度,δ2(r(θi,θj),表示连接两个同类身体部分的边之间的相似度。

1)计算节点属性相似度δ1(Δ(θi),

在式(2)中,针对两个人体的同类身体部分,节点属性Δ(θi)={ωi,pi,histi}中标记ωi是相同的,如匹配两人体的“头部”,即标记ωi均为”head”,则可重新确定需要计算相似度的两节点属性Δ(θi)、Δ(θi)={pi,histi},Δ(θ^i)={p^i,hi^sti},因此节点属性相似度定义为位置向量相似度及颜色直方图相似度的加权和:

δ1(Δ(θi),Δ(θ^i))=λpδp(pi,p^i)+λhδh(histi,hi^sti)---(3)

其中权重λph=1,使得δ1值在0-1内。

①计算位置相似度首先根据目标运动状态计算Mahalanobis(马氏)距离:

σ(pi,p^i)=(pi-p^i)×(P+P^)×(pi-p^i)T---(4)

其中,P、分别是位置向量pi、的协方差矩阵,具体求法在下面说明。本发明利用kalman(卡尔曼)估计器求Mahalanobis距离σ。

在监控视频中,通常相邻帧间时间间隔Δt很小,人体的运动可近似认为是匀速运动,该线性系统状态方程和测量方程为:

x(t)=Ax(t-1)+w(t)                    (5)

y(t)=Cx(t)+v(t)                      (6)

式(5)中,w为系统噪声,反映线性系统模型的精确程度,满足均值为零的高斯分布,其协方差矩阵为Q,设Q=0.01×I(I为单位矩阵);v为观测噪声,是均值为零的白噪声序列,和w互不相关,其协方差矩阵为R,可通过求一段时间内的背景图象中某象素点观测值的方差得到。同时,定义状态向量x(t)=[pi,vi]T和观测向量y(t)=pi,其中vi是位置为pi的点的速度,则根据匀速运动动力学方程得到系统状态方程A及观测方程C:

A=1Δt01C=[1  0]                                    (7)

根据kalman估计器及定义的线性系统方程,得到式(4)中的各项分别计算为:

pi=y(t)                                     (8)

p^i=y^(t|t-1)---(9)

P=R                                         (10)

P^=CP(t|t-1)CT---(11)

则得到当前帧观测向量p及其前帧跟踪值的mahalanobis距离为:

σ=(y(t)-y^(t|t-1))T(CP(t|t-1)CT+R)-1(y(t)-y^(t|t-1))---(12)

其中,是前帧(第t-1帧)跟踪值在当前帧(第t帧)中的观测量预测值,P(t|t-1)是状态向量协方差矩阵的预测矩阵,均由kalman估计器得到:

y^(t|t-1)=Cx(t|t-1)=C×A×x(t-1)---(13)

P(t|t-1)=AP(t-1|t-1)AT+Q(t-1)                (14)

显然,如σ小于某阈值,则可认为两位置代表同一特征即互相匹配。根据σ服从卡方分布,且在本线性系统中自由度为1,查卡方分布表(设真假设接受概率为95%),则阈值ε为3.841。由此,根据mahalanobis距离测度σ得到位置相似度:

δp(pi,p^i)=ϵ-σϵ,(σ<ϵ)0,(σϵ)---(15)

②计算颜色直方图相似度常用的度量直方图相似度的是Bhattacharyya(巴塔查里亚)距离,则两颜色直方图histi、间的相似度表示为:

δh(histi,hi^sti)=Σβ=172histi(β)hi^sti(β)---(16)

式中histi、分别代表属性关系图G、的节点属性中的颜色直方图,由式

(1)计算得到,β表示颜色直方图histi、的位数。

将式(15)、(16)代入式(3)则得到节点属性相似度。

2)计算边属性相似度δ2(r(θi,θj),求边属性的相似度,如图2b)所示,即求两直线段的特征相似度。由于边属性的定义中包含直线段长度、角度两个属性,因此边属性相似度采用直线段长度、角度的相似度来计算:

δ2(r(θi,θj),r^(θ^i,θ^j))=λlδl(rl,r^l)+λgδg(rg,r^g)---(17)

其中,δl、δg分别是直线段长度、角度匹配度,权重满足λlg=1。式中,rl,分别为G和中边的长度属性值,rg和分别为G各和中边的角度属性值。

直线段长度匹配度δl度量直线段长度差异:

δl=1-|rl-r^l|rl+r^l---(18)

直线段角度匹配δg度量直线段角度差异:

将式(18)、(19)代入到式(17),得到边属性匹配度。

最后,将式(3)计算的节点属性相似度、式(17)计算的边属性相似度代入式(2),得到属性关系图外观模型G和的相似度。

3、基于属性关系图匹配的跟踪情况分析

在得到当前帧中人体检测区域的属性关系图与前一帧跟踪人体的属性关系图的相似度后,可据此将当前帧检测的人体和前一帧的跟踪人体对应匹配,以完成对监控场景中多人体的跟踪。本发明首先建立匹配矩阵,列出各检测区域与上一帧跟踪人体的相似度:设匹配矩阵的行号代表当前帧人体检测区域,列号代表上一帧跟踪人体,将属性关系图外观模型的匹配度τnm(n表示当前帧检测人体的序号,m表示前一帧跟踪人体的标记)作为矩阵元素值记录,然后根据匹配阈值τ0确定是否匹配:

表1第t帧匹配矩阵

通过匹配矩阵的匹配情况,分析、确定当前帧中多人体的跟踪状态、获取人体运动轨迹,并更新其外观模型。匹配情况可归纳为四种,对应四种跟踪情况:

1)新人体出现:第n行中τ′nm均为0:且持续连续三帧,则认为是“新人体”出现,检测人体n为新出现人体,分配新标记,建立其属性关系图外观模型,开始跟踪该人体;

2)正常跟踪:第n行有且仅有一个τ′nm=1的元素:则检测人体n与跟踪人体m匹配,认为是“正常跟踪”,为检测人体n分配标记m,记录其外接矩形框中心点位置,并将检测人体n的外观模型作为跟踪人体m更新的属性关系图外观模型;

3)遮挡跟踪:第n行有多个τ′nm=1的元素:则认为是“遮挡跟踪”,检测人体n是由多个遮挡人体组成,被遮挡的人体为τ′nm=1的元素所在列对应的跟踪人体,由于丢失各跟踪人体在当前帧的检测值,无法通过匹配矩阵识别不同人体,此跟踪情况采用后述“遮挡情况下的跟踪”处理;

4)人体消失:第m列元素τ′nm均为0:且该情况在连续三帧出现,则认为是“人体消失”,即跟踪人体m消失,从跟踪序列中删除该人体。

●遮挡情况下的跟踪

在遮挡情况下由于只能检测到遮挡人体组成的一个前景区域,而无法区分各遮挡人体位置,本发明采用Kalman滤波器预测遮挡人体的位置,从而确定各遮挡人体的属性关系图外观模型,完成遮挡情况下的跟踪,具体步骤如下:

①根据匹配矩阵获取的遮挡人体标号,由Kalman滤波器根据其在上一帧的位置预测遮挡人体在当前帧的位置,并依据该预测位置及遮挡人体在上一帧外接矩形框的大小,确定该遮挡人体在当前帧的外接矩形框区域。

人体外接矩形框中心点的运动过程建模为匀速运动模型,并采用Kalman滤波器预测遮挡人体外接矩形框在当前帧中的位置。状态向量表示为x(t)=[pt,vt]T,观测向量表示为y(t)=pt,其中pt、vt分别表示中心点x方向坐标、速度,则得到与式(7)相同的状态转移矩阵及观测矩阵,采用式(13)得到Kalman预测的测量值作为遮挡人体在当前帧的中心点x方向坐标值,中心点y方向坐标也同理可得,并记录预测的中心点坐标以获得跟踪轨迹。然后,遮挡人体的外接矩形框区域可根据中心点的预测位置及其在上一帧的外接矩形框大小得到。如图3a)所示,虚线框表示预测区域。

②将遮挡人体外接矩形框内的前景外观建模为遮挡人体的属性关系图外观模型,用于与下一帧的检测人体匹配,进行连续跟踪。采用与检测人体属性关系图外观模型G相同的定义,将每个预测区域的前景建模为遮挡人体的属性关系图外观模型,遮挡人体属性关系图外观模型如图3b),其中圆点表示节点,虚线表示边。

本发明提出的方法与目前主要的通过人体外观模型进行跟踪的方法(颜色直方图跟踪方法、采用颜色和空间信息的跟踪方法、颜色相关图跟踪方法)相比,建立的人体属性关系图外观模型不仅描述了人体外观的颜色特征、空间信息,还表征了人体的身体结构特征,大大提高了人体外观模型的准确性,并且本发明提出的外观模型及匹配算法简便、有效,能实现多人体的实时跟踪。图4所示为本发明提出的跟踪方法在多人复杂运动监控视频中的实验结果。实验采用的计算机配置为奔四处理器、内存1GB、主频3.00GHz,在Matlab7.0的运行环境中,运行速度达到约10-11帧/秒,跟踪实时性高。该视频中3个不同外观的人体在一大厅中从不同方向行走、相遇再分离,视频序列分辨率为250×370,帧速为每秒25帧,共有355帧,其中有120帧出现遮挡。图4a)-f)所示分别为第71帧、106帧、138帧、176帧、206帧及241帧跟踪结果,其中c)、d)中实现了多人遮挡情况下的跟踪,e)、f)表明在遮挡后各个人体仍能正确跟踪。图5比较了传统的颜色直方图建模人体外观的跟踪方法与本发明提出的跟踪方法在该视频中的跟踪误差,跟踪误差由跟踪结果中人体外接矩形框中心点坐标与其真实值之间的欧式距离计算得到,可见本发明提出的跟踪方法的跟踪误差远低于传统的颜色直方图跟踪方法,大大提高了固定监控场景中多人体跟踪的准确性、有效性。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号