公开/公告号CN108122411A
专利类型发明专利
公开/公告日2018-06-05
原文格式PDF
申请/专利权人 浙江浩腾电子科技股份有限公司;
申请/专利号CN201711049066.X
申请日2017-10-31
分类号
代理机构杭州浙科专利事务所(普通合伙);
代理人周红芳
地址 323000 浙江省丽水市绿谷信息产业园天宁孵化基地12栋201
入库时间 2023-06-19 05:35:28
法律状态公告日
法律状态信息
法律状态
2020-01-24
授权
授权
2018-06-29
实质审查的生效 IPC(主分类):G08G1/01 申请日:20171031
实质审查的生效
2018-06-05
公开
公开
技术领域
本发明涉及智慧交通技术领域,尤其涉及在车辆跟踪过程中,利用车速预测对车辆跟踪频率进行自适应调整的基于车速预测的跟踪频率自适应优化方法。
背景技术
随着社会经济的发展,城市中汽车数量急剧增长,随之而来的各类交通问题严重影响城市化发展,智能交通系统应运而生并逐渐成为当今社会处理交通大数据的主要手段。车辆视频跟踪通过对视频序列进行分析,得到个体车的实时运动状态和运动轨迹,进而获得交通流量、车速、交通流密度等交通参数,为交通管理与设计提供数据支持,具有重要的应用价值。
在实际场景中,对复杂场景的鲁棒性以及对跟踪算法的实时性要求是目前视频目标跟踪技术的主要挑战。在具体应用中发现,当道路出现堵车或等红灯排队情况时,车辆往往以较低速度行驶。当交通视频帧率设置较高时,同时对多辆低速车辆进行每帧跟踪,计算量过大,算法实时性难以保证;当交通视频帧率设置较低时,会出现高速行驶车辆跟踪丢失的问题。
发明内容
针对上述问题,本发明公开了一种基于车速预测的跟踪频率自适应优化方法,该方法利用车辆速度连续性变化的特点,能根据车速动态调整的车辆的跟踪频率,进而减少跟踪算法的开销,提高算法实时性。
所述的一种基于车速预测的跟踪频率自适应优化方法,其特征在于包括以下步骤:
步骤1:从道路监控视频中手动标定车辆检测区域、车辆跟踪区域;
步骤2:读取图像序列,截取当前图像中车辆跟踪区域G;
步骤3:采用帧差法对G进行运动检测,得到运动前景二值图GB;
步骤4:记当前帧序列号为a,当前图像为fa;在fa的车辆检测区中检测新出现的车辆,将其加入跟踪队列,得到跟踪车辆集合TL={ci,Fi,Ri|i=1,2,3...,Ca},其中ci表示第i辆跟踪车辆,Fi表示ci存在的图像序列集合,Ri表示ci跟踪框位置集合,Ca表示前a帧车辆编号的最大值;
步骤5:遍历TL中所有跟踪车辆,若TL中任意车辆ci满足式(1),则该车辆在当前帧不跟踪,先根据式(2)计算得到ria,然后将a、ria分别加入Fi、Ri中,进入步骤7;否则进入步骤6;
ria=ria-1>
式中,ria、riα-1分别表示ci在fa-1、fa中的跟踪框,S(ria-1,GB)表示riα-1在GB对应位置子图的前景像素点个数之和,
步骤6:已知采用跟踪算法为X,若车辆ci同时满足式(3)和式(4),则当前帧不跟踪,直接跳过,否则正常跟踪,并将a加入Fi,将跟踪后得到的ria加入Ri:
a-2,a-1∈Fi>
2*|ria-2.center-ria-1.center|*μ<D(ria-1,X)>
式中,ria-1、ria-2分别表示ci在fa-1、fa-2中的跟踪框,ria-1.center、ria-2.center分别表示ria-1、ria-2的中心点像素坐标,|ria-2.center-ria-1.center|表示ria-2和riα-1中心点坐标像素距离,μ表示波动系数,D(ria-1,X)表示给定的跟踪算法X对ria-1的单次跟踪最大有效像素距离;
步骤7:遍历TL在当前帧的车辆跟踪框,若已经出界或跟踪丢失,则将该跟踪车辆从TL中剔除;
步骤8:若视频帧序列号小于视频最大帧号P,则重复步骤2-8;反之,则跟踪结束。
本发明的优点是:本发明根据车辆速度连续性变化的特点,能够动态调整被跟踪车辆的跟踪频率,从而降低跟踪算法的计算量,提高算法实时性。
附图说明
图1为一种基于车速预测的跟踪频率自适应优化方法流程图。
图2为本发明实施例中步骤1标定后的结果。
具体实施方式
下面结合实施例来详细阐述本发明的一种基于车速预测的跟踪频率自适应优化方法的具体实施方式。
实施例1
参照图1,本发明的一种基于车速预测的跟踪频率自适应优化方法,具体包括如下步骤:
步骤1:从道路监控视频中手动标定车辆检测区域、车辆跟踪区域;在本实施例中,车辆检测区域、车辆跟踪区域标定后的结果如图2所示;
步骤2:读取图像序列,截取当前图像中车辆跟踪区域G;
步骤3:采用帧差法对G进行运动检测,得到运动前景二值图GB;在本实施例中,采用帧差法对车辆跟踪区域进行运动检测;
步骤4:记当前帧序列号为a,当前图像为fa;在fa的车辆检测区中检测新出现的车辆,将其加入跟踪队列,得到跟踪车辆集合TL={ci,Fi,Ri|i=1,2,3...,Ca},其中ci表示第i辆跟踪车辆,Fi表示ci存在的图像序列集合,Ri表示ci跟踪框位置集合,Ca表示前a帧车辆编号的最大值;
步骤5:遍历TL中所有跟踪车辆,若TL中任意车辆ci满足式(1),则该车辆在当前帧不跟踪,先根据式(2)计算得到ria,然后将a、ria分别加入Fi、Ri中,进入步骤7;否则进入步骤6;
ria=ria-1>
式中,ria、riα-1分别表示ci在fa-1、fa中的跟踪框,S(ria-1,GB)表示riα-1在GB对应位置子图的前景像素点个数之和,表示riα-1的像素面积,ST表示防止噪声干扰的阈值;
步骤6:已知采用跟踪算法为X,若车辆ci同时满足式(3)和式(4),则当前帧不跟踪,直接跳过;否则正常跟踪,并将a加入Fi,将跟踪后得到的ria加入Ri:
a-2,a-1∈Fi>
2*|ria-2.center-ria-1.center|*μ<D(ria-1,X)>
式中,ria-1、ria-2分别表示ci在fa-1、fa-2中的跟踪框,ria-1.center、ria-2.center分别表示ria-1、ria-2的中心点像素坐标,|ria-2.center-ria-1.center|表示ria-2和riα-1中心点坐标像素距离,μ表示波动系数,D(ria-1,X)表示给定的跟踪算法X对ria-1的单次跟踪最大有效像素距离;在本实施例中,算法X采用了基于粒子滤波的跟踪方法,μ为1.2,D(ria-1,X)为2*min(ria-1.width,ria-1.height),其中ria-1.width、ria-1.height分别表示ria-1的宽度和高度;
步骤7:遍历TL在当前帧的车辆跟踪框,若已经出界或跟踪丢失,则将该跟踪车辆从TL中剔除;
步骤8:若视频帧序列号小于视频最大帧号P,则重复步骤2-8;反之,则跟踪结束。
本说明书实施例所述的内容仅仅是对本发明构思实现形式的举例,本发明的保护范围不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能想到的等同技术手段。
机译: 一种基于模型的在线优化方法来限制车辆的状态变量,该方法用于预测车辆的状态变量
机译: 一种基于模型的在线优化方法来限制车辆的状态变量,该方法用于预测车辆的状态变量
机译: 基于深度学习的跟踪模块中基于余弦距离和交点面积的跟踪优化方法