首页> 中国专利> 一种停车事件的检测方法和装置

一种停车事件的检测方法和装置

摘要

本发明实施例提供了一种停车事件的检测方法和装置,所述方法包括:获取视频数据;在所述停车事件的检测周期中,对所述视频数据的第一帧图像数据进行检测,得到一个或多个车辆对象,并确定所述一个或多个车辆对象在所述第一帧图像数据中的第一检测信息;对所述一个或多个车辆对象进行跟踪,得到所述一个或多个车辆对象在所述视频数据的第二帧图像数据中的第二检测信息;其中,所述第二帧图像数据为在所述视频数据中排序在所述第一帧图像数据之后的图像数据;根据所述第一检测信息和所述第二检测信息,从所述一个或多个车辆对象中,确定存在停车事件的停车车辆对象。通过本发明实施例,实现了对停车事件的判断,提高了停车事件检测方法的准确性,有效地避免误判。

著录项

  • 公开/公告号CN112183204A

    专利类型发明专利

  • 公开/公告日2021-01-05

    原文格式PDF

  • 申请/专利权人 深圳市诺龙技术股份有限公司;

    申请/专利号CN202010874151.5

  • 申请日2020-08-26

  • 分类号G06K9/00(20060101);G08G1/017(20060101);

  • 代理机构11319 北京润泽恒知识产权代理有限公司;

  • 代理人莎日娜

  • 地址 518000 广东省深圳市南山区西丽街道阳光社区松白路1002号百旺信工业园24栋611

  • 入库时间 2023-06-19 09:26:02

说明书

技术领域

本发明涉及数据处理技术领域,特别是涉及一种停车事件的检测方法和装置。

背景技术

在交通事件中,停车事件最为常见,通过检测停车事件可以更好的避免交通事故的发生。

在停车事件的检测方法中,相比于其他检测方法,基于交通监控视频的检测方法能提供更加直观和细致的可视化信息。在基于交通监控视频的停车事件检测方法中,可以通过算法检测,自动的对视频监控中的车辆行为进行分析,当出现停车车辆时,检测算法会上报该停车事件的信息。因此,通过对交通监控视频中的车辆行为的监测分析,掌握交通异常行为,并进行实时预警和处理,可以防止交通事故的发生。

现有的基于交通监控视频的停车事件检测方法存在对车辆的停车事件判断不够准确问题,容易导致对交通监控视频车辆状态的误判。

发明内容

鉴于上述问题,提出了以便提供克服上述问题或者至少部分地解决上述问题的一种停车事件的检测方法和装置,包括:

一种停车事件的检测方法,所述方法包括:

获取视频数据;

在所述停车事件的检测周期中,对所述视频数据的第一帧图像数据进行检测,得到一个或多个车辆对象,并确定所述一个或多个车辆对象在所述第一帧图像数据中的第一检测信息;

对所述一个或多个车辆对象进行跟踪,得到所述一个或多个车辆对象在所述视频数据的第二帧图像数据中的第二检测信息,其中,所述第二帧图像数据为在所述视频数据中排序在所述第一帧图像数据之后的图像数据;

根据所述第一检测信息和所述第二检测信息,从所述一个或多个车辆对象中,确定存在停车事件的停车车辆对象。

可选地,在所述停车事件的检测周期中,所述对所述视频数据的第一帧图像数据进行检测,得到一个或多个车辆对象,包括:

将所述视频数据的第一帧图像数据输入预置的深度学习模型;其中,所述深度学习模型用于结合所述第一帧图像数据的环境信息,对所述第一帧图像数据进行检测;

接收所述深度学习模型输出的针对所述第一帧图像数据的一个或多个车辆对象。

可选地,所述对所述一个或多个车辆对象进行跟踪,得到所述一个或多个车辆对象在所述视频数据的第二帧图像数据中的第二检测信息,包括:

针对所述第一帧图像数据中每个车辆对象,依次在所述视频数据中排序在所述第一帧图像数据之后的图像数据中进行跟踪,以在所述视频数据的第二帧图像数据中确定所述车辆对象;

确定所述车辆对象在所述第二帧图像数据中的第二检测信息。

可选地,在所述第一帧图像数据和所述第二帧图像数据之间存在第N帧图像数据与第N+1帧图像数据,所述针对所述第一帧图像数据中每个车辆对象,依次在所述视频数据中排序在所述第一帧图像数据之后的图像数据中进行跟踪,以在所述视频数据的第二帧图像数据中确定所述车辆对象,包括:

获取所述第N帧图像数据中的目标车辆对象;

针对所述目标车辆对象,确定与所述第N+1帧图像数据中每个车辆对象的关联度信息;

根据所述关联度信息,在所述第N+1帧图像数据中确定所述目标车辆对象。

可选地,所述针对所述目标车辆对象,确定与所述第N+1帧图像数据中每个车辆对象的关联度信息,包括:

针对所述目标车辆对象,确定与所述第N+1帧图像数据中每个车辆对象的运动匹配信息与表观匹配信息;

采用所述运动匹配信息与所述表观匹配信息,确定与所述第N+1帧图像数据中每个车辆对象的关联度信息。

可选地,所述根据所述第一检测信息和所述第二检测信息,从所述一个或多个车辆对象中,确定存在停车事件的停车车辆对象,包括:

根据所述第一检测信息和所述第二检测信息,分别确定所述一个或多个车辆对象的定位框重叠面积变化率,其中,所述定位框重叠面积变化率为所述一个或多个车辆对象在所述第一帧图像数据的定位框面积与所述第二帧图像数据中的定位框面积的变化率;

将所述定位框重叠面积变化率大于预设定位框重叠面积变化率的车辆对象确定为存在停车事件的停车车辆对象。

可选地,所述第一检测信息或所述第二检测信息包括以下任一项或多项:

定位框坐标,定位框宽参数,定位框高参数。

一种停车事件的检测装置,所述装置包括:

视频数据获取模块,用于获取视频数据;

第一帧图像数据检测模块,用于在所述停车事件的检测周期中,对所述视频数据的第一帧图像数据进行检测,得到一个或多个车辆对象,并确定所述一个或多个车辆对象在所述第一帧图像数据中的第一检测信息;

车辆对象跟踪模块,用于对所述一个或多个车辆对象进行跟踪,得到所述一个或多个车辆对象在所述视频数据的第二帧图像数据中的第二检测信息;其中,所述第二帧图像数据为在所述视频数据中排序在所述第一帧图像数据之后的图像数据;

停车车辆对象确定模块,用于根据所述第一检测信息和所述第二检测信息,从所述一个或多个车辆对象中,确定存在停车事件的停车车辆对象。

一种电子设备,包括处理器、存储器及存储在所述存储器上并能够在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上所述的停车事件的检测方法。

一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如上所述的停车事件的检测方法。

本发明实施例具有以下优点:

在本发明实施例中,通过获取视频数据,在所述停车事件的检测周期中,可以对视频数据的第一帧图像数据进行检测,得到一个或多个车辆对象,并确定一个或多个车辆对象的第一检测信息,进而可以通过对一个或多个车辆对象进行跟踪,得到一个或多个车辆对象在视频数据的第二帧图像数据中的第二检测信息,并根据第一检测信息和第二检测信息,从一个或多个车辆对象中,确定存在停车事件的停车车辆对象,实现了对停车事件的判断,提高了停车事件检测方法的准确性,有效地避免误判。

附图说明

为了更清楚地说明本发明的技术方案,下面将对本发明的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1是本发明一实施例提供的一种停车事件的检测方法的步骤流程图;

图2是本发明一实施例提供的另一种停车事件的检测方法的步骤流程图;

图3是本发明一实施例提供的一种外观特征提取网络结构的示意图;

图4a是本发明一实施例提供的一种YOLOV3网络中停车事件检测的流程图;

图4b是本发明一实施例提供的一种停车事件检测的流程图;

图5是本发明一实施例提供的一种停车事件的检测装置的结构示意图。

具体实施方式

为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

参照图1,示出了本发明一实施例提供的一种停车事件的检测方法的步骤流程图,具体可以包括如下步骤:

步骤101,获取视频数据;

在实际应用中,交通视频监控录像可以记录道路上的车辆的运动状态,通过获取正在进行监控或录制好的交通监控录像的视频数据,可以进一步确认视频数据中的车辆对象的是否存在停车事件。

步骤102,在所述停车事件的检测周期中,对所述视频数据的第一帧图像数据进行检测,得到一个或多个车辆对象,并确定所述一个或多个车辆对象在所述第一帧图像数据中的第一检测信息;

在获取视频数据之后,在所述停车事件的检测周期中,可以对视频数据中的第一帧图像数据进行检测,从而可以在第一帧图像数据中得到一个或多个车辆对象,并可以进一步确定这些车辆对象在第一帧图像数据中的第一检测信息。

其中,第一帧图像数据为视频数据中的一帧图像数据。

在一示例中,所述第一检测信息可以包括以下任一项或多项:

定位框坐标,定位框宽参数,定位框高参数。

在实际应用中,停车事件检测方法可以通过综合手工设计特征对运动的车辆进行检测,包括如下步骤:

(1)通过背景建模方法获取监控视频图像中的运动目标;

(2)采用监控视频图像历史样本作为训练数据,提取训练数据的手工设计特征训练车辆目标检测分类器;

(3)在对监控视频图像中是否有停车行为判别时,采用训练数据训练好的车辆目标检测分类器对提取的运动目标进行预测判别;

(4)当运动目标为车辆时,进一步通过停车判别策略检测出停止车辆。

在图像数据中,光照或拍摄角度等环境因素会造成同一车辆对象在两帧图像数据上的显著差异,而提取的手工技术特征容易受到光照或拍摄角度等环境因素的影响,通过这些手工技术特征进行车辆检测容易出现误判。

在本发明一实施例中,在所述停车事件的检测周期中,所述对所述视频数据的第一帧图像数据进行检测,得到一个或多个车辆对象,包括:

在所述停车事件的检测周期中,将所述视频数据的第一帧图像数据输入预置的深度学习模型,其中,所述深度学习模型用于结合所述第一帧图像数据的环境信息,对所述第一帧图像数据进行检测;接收所述深度学习模型输出的针对所述第一帧图像数据的一个或多个车辆对象。

在获取视频数据之后,由于预置的深度学习模型可以结合图像数据的环境信息,对图像数据进行检测,进而可以将视频数据的第一帧图像数据输入到深度学习模型中进行检测,然后可以接收深度学习模型输出的第一帧图像数据中的一个或多个车辆对象。

由于深度学习模型通过可以结合图像数据的环境信息,可以更加准确的确定车辆对象,避免误判,提升了深度学习模型在检测环境以及检测场景中的鲁棒性。

在一示例中,可以采集不同时间和不同环境的车辆样本,构建包含停车行为的样本集,通过构建的样本集,可以进一步训练用于检测图像数据的深度学习模型,其中,不同时间和不同环境车辆样本可以包括白天、晚上、晴天、阴天、雨天多种条件下采集的车辆样本,

由于构建的样本集包括了不同时间与环境下的车辆样本,通过这样的样本集训练出来的深度学习模型,可以结合图像数据中的环境信息进行车辆对象的检测。

在一示例中,可以通过YOLOV3网络训练深度学习模型:

在YOLOV3网络中训练深度学习模型,可以在训练过程中采取权重加载策略、冻结参数策略、学习率衰减策略,同时通过损失函数计算总损失。

1)预权重加载策略:

使用已经进行过相关目标数据集训练过的权重作为初始加载权重,从而可以加快网络的收敛速度,从而可以在相同训练轮数下,使网络识别的结果更加准确。

2)冻结参数策略:

YOLOV3网络可以由darknet53与YOLO两个部分组成,darknet53是一个已经训练好的参数,设置freeze_body=2,其含义为:在训练的开始阶段,暂时不训练darknet53部分,先训练YOLO部分。

当YOLO部分的网络收敛到一定程度(一定程度可以是当总的损失函数斜率逐渐趋于0时)之后,再解冻全部网络,进而对整体darknet53与YOLO 两部分一起进行微调,从而可以达到更精准的识别效果。

3)学习率衰减策略:

由于学习率越小,则网络收敛的可达精度越高,但是需要的训练时间越长,所以需要在训练开始设置较大的学习率,在训练过程中将学习率逐渐减小,这样既可以保证网络精度,又可以保证训练时间。

在一示例中,可以通过连续三个epoch,达到损失(loss)未下降,但学习率衰减为原来的0.1倍的效果。

4)损失函数:

损失函数:YOLOv3损失函数主要由目标位置损失、目标大小损失、置信度损失和类别损失几个部分组成,公式(1)表示YOLOv3总的损失。

目标位置损失(Error

目标大小损失(Error

置信度损失(Error

类别损失(Error

总的损失函数由各部分损失累加所得,具体计算公式如下:

Loss=Error

在依照上述方法训练好深度学习模型后,可以加载模型训练步骤中得到的模型权重文件,对输入的交通场景视频数据进行检测,三个YOLO卷积层负责输出检测结果。卷积层输出的y1、y2、y3的尺寸分别为:13×13×255、 26×26×255、52×52×255。

其中13×13、26×26、52×52代表三个尺度的大小;13×13代表该尺度下共有13×13=169个网格单元;26×26代表该尺度下共有26×26=676 个网格单元;52×52代表该尺度下共有52×52=2704个网格单元。

255含义如下:YOLOV3设定的是对每个网格单元预测3个box,预测每个box需要有(x,y,w,h,confidence)五个基本参数,然后还要有80个类别 (COCO据集)的概率,所以3*(5+80)=255。

步骤103,对所述一个或多个车辆对象进行跟踪,得到所述一个或多个车辆对象在所述视频数据的第二帧图像数据中的第二检测信息;其中,所述第二帧图像数据为在所述视频数据中排序在所述第一帧图像数据之后的图像数据;

在得到第一帧图像数据中的一个或多个车辆对象后,可以对这些车辆对象进行跟踪,直至第二帧图像数据,因而,可以得到第一帧图像数据中的一个或多个车辆对象在第二帧图像数据中的第二检测信息,其中,第二帧图像数据可以是在视频数据中排序在第一帧图像数据之后,且与第一帧图像数据相差第一预设帧数的图像数据。

在一示例中,所述第二检测信息可以包括以下任一项或多项:

定位框坐标,定位框宽参数,定位框高参数。

在本发明一实施例中,所述对所述一个或多个车辆对象进行跟踪,得到所述一个或多个车辆对象在所述视频数据的第二帧图像数据中的第二检测信息,包括:

针对所述第一帧图像数据中每个车辆对象,依次在所述视频数据中排序在所述第一帧图像数据之后的图像数据中进行跟踪,以在所述视频数据的第二帧图像数据中确定所述车辆对象;确定所述车辆对象在所述第二帧图像数据中的第二检测信息。

在得到第一帧图像数据中的一个或多个车辆对象后,由于车辆对象可能正在会处于运动状态,可以针对第一帧图像数据中的每个车辆对象建立车辆编号,并根据车辆编号对每个车辆对象依次在视频数据中排序在第一帧图像数据之后的图像数据进行跟踪,从而可以确定不同帧中的相同车辆对象。

当跟踪至第二帧图像数据时,第二帧图像数据所检测到的车辆对象中存在包含车辆编号的车辆对象,从而可以根据车辆编号确定第二帧图像数据中与第一帧图像数据中车辆编号相同的车辆对象,进而可以得到编号相同的车辆对象在第二帧图像数据的第二检测信息。

步骤104,根据所述第一检测信息和所述第二检测信息,从所述一个或多个车辆对象中,确定存在停车事件的停车车辆对象。

在确定第二检测信息后,由于得到了第一帧图像数据中的一个或多个车辆对象的第一检测信息,以及这些车辆对象在第二帧图像数据中的对应的第二检测信息,相当于得到了相同车辆在同一视频数据中间隔第一预设帧数的两帧图像数据的检测信息,进而可以通过这两帧图像数据中的相同车辆对象的第一检测信息和第二检测信息,确定存在停车事件的停车车辆对象。

作为一种示例,所述第一检测信息或所述第二检测信息包括以下任一项或多项:

定位框坐标,定位框宽参数,定位框高参数。

在实际应用中,可以通过对车辆跟踪得到的每个车辆对象的跟踪轨迹进行分析,确定停车车辆对象,而在车辆密集的场景中,多个车辆对象轨迹的完整性不高且轨迹的可靠性也不强,容易造成停车事件误判。

而在本发明一实施例中,所述根据所述第一检测信息和所述第二检测信息,从所述一个或多个车辆对象中,确定存在停车事件的停车车辆对象,包括:

根据所述第一检测信息和所述第二检测信息,分别确定所述一个或多个车辆对象的定位框重叠面积变化率,其中,所述定位框重叠面积变化率为所述一个或多个车辆对象在所述第一帧图像数据的定位框面积与所述第二帧图像数据中的定位框面积的变化率;将所述定位框重叠面积变化率大于预设定位框重叠面积变化率的车辆对象确定为存在停车事件的停车车辆对象。

在确定第二检测信息后,可以通过第一检测信息和第二检测信息确定一个或多个车辆对象的定位框重叠面积变化率,当其中某个车辆对象的定位框重叠面积变化率大于预设定位框重叠面积变化率时,可以确定这个车辆对象为存在停车事件的停车车辆对象。

通过确定第一帧图像数据与第二帧图像数据中的相同车辆对象的定位框重叠面积变化率,实现了在同一个场景中对多个车辆对象同时检测,与轨迹分析相比更加简洁高效,有效避免停车事件误判。

在一示例中,停车事件的描述可以包括物理描述或图像描述:

(1)停车事件的物理描述

正常行驶的车辆停车过程主要分为三个过程,减速过程、停止过程、加速过程。假设停车和启动过程车辆的加速度恒定,单辆车停车的运动过程使用模型描述如下所示:

上式中,v

(2)停车事件定义

通过对单辆车和多辆车的停车运动模型进行分析,车辆存在停车事件的条件为:

parking={v

式中,v

(3)停车事件的图像描述

存在停车事件的停车车辆对象的运动特征表现较为明显,车辆的速度约为0,同时,在视频数据中,车辆对象的检测位置基本不发生改变。

在设计停车检测算法时,可以设计的检测参数有车辆行驶速度,行驶速度的计算依赖于车辆目标检测和车辆跟踪得到的车辆对象的车辆编号信息和车辆定位框位置坐标。

在图像表达中,可以将车辆速度的计算转化为定位框重叠面积变化率计算,计算同一车辆对象在间隔第一预设帧数(间隔第一预设时间)的定位框间重叠面积的变化率,在算法中将衡量前后同一车辆对象的定位框重叠面积变化率定义为IOU

式中,area1为某一车辆在第一帧图像数据中定位框位置坐标计算出的定位款面积,area2为T时间后(间隔K帧或间隔第一预设帧数),该车辆目在第二帧图像数据中的定位框位置坐标计算出的定位框面积, overlaparea1为该车辆在第一帧图像数据中定位框位置与第二帧图像数据的定位框位置的定位框重叠面积。

停车事件通过图像分析表达为:

式中,为t

在一示例中,在确定停车车辆对象后,可以获取停车车辆的车辆编号,可以进一步确定车辆编号是否为停车列表中记录的车辆编号,如果没有记录该车辆编号,在停车列表中记录车辆编号以及第二检测信息,并上报停车事件。

在本发明实施例中,通过获取视频数据,在所述停车事件的检测周期中,可以对视频数据的第一帧图像数据进行检测,得到一个或多个车辆对象,并确定一个或多个车辆对象的第一检测信息,进而可以通过对一个或多个车辆对象进行跟踪,得到一个或多个车辆对象在视频数据的第二帧图像数据中的第二检测信息,并根据第一检测信息和第二检测信息,从一个或多个车辆对象中,确定存在停车事件的停车车辆对象,实现了对停车事件的判断,提高了停车事件检测方法的准确性,有效地避免误判。

参照图2,示出了本发明一实施例提供的另一种停车事件的检测方法的步骤流程图,具体可以包括如下步骤:

步骤201,获取视频数据;

步骤202,在所述停车事件的检测周期中,对所述视频数据的第一帧图像数据进行检测,得到一个或多个车辆对象,并确定所述一个或多个车辆对象在所述第一帧图像数据中的第一检测信息;

步骤203,针对所述第一帧图像数据中每个车辆对象,依次在所述视频数据中排序在所述第一帧图像数据之后的图像数据中进行跟踪,以在所述视频数据的第二帧图像数据中确定所述车辆对象;

在本发明一实施例中,在所述第一帧图像数据和所述第二帧图像数据之间存在第N帧图像数据与第N+1帧图像数据,所述针对所述第一帧图像数据中每个车辆对象,依次在所述视频数据中排序在所述第一帧图像数据之后的图像数据中进行跟踪,以在所述视频数据的第二帧图像数据中确定所述车辆对象,包括:

获取所述第N帧图像数据中的目标车辆对象;针对所述目标车辆对象,确定与所述第N+1帧图像数据中每个车辆对象的关联度信息;根据所述关联度信息,在所述第N+1帧图像数据中确定所述目标车辆对象。

在确定第一帧图像数据中的一个或对个车辆对象后,可以针对每个车辆对象进行跟踪,通过跟踪可以确定在相邻两帧或间隔第二预设帧数(第二预设帧数小于第一预设帧数)的两帧中的相同车辆对象。

从第一帧图像数据开始,对于间隔第二预设帧数的前后两帧对应的图像数据的所检测到的车辆对象计算关联度信息,当两帧图像数据中的两个车辆对象之间的关联度信息符合预设关联度信息时,可以确定这两个车辆对象为不同帧中的相同车辆对象。

具体的,在第一帧图像数据与第二帧图像数据之间存在第N帧图像数据以及第N+1帧图像数据,可以获取第N帧图像数据中的目标车辆对象,针对目标车辆对象确定该目标车辆对象与第N+1帧图像数据中每个车辆对象的关联度信息,从而可以根据关联度信息在第N+1帧图像数据中找到这个目标车辆对象,实现了从对第N帧图像数据中的目标车辆对象从第N帧图像数据到第N+1帧图像数据的的跟踪,通过这种间隔第二预设帧数两帧之间的车辆对象的跟踪,可以对第一帧图像数据中的一个或多个车辆对象实现从第一帧图像数据到第二帧图像数据的跟踪,从而在第二图像确定所跟踪的车辆对象。

在实际应用中,可以通过对相邻两帧图像数据的车辆对象进行运动匹配确定两帧图像数据的相同车辆对象,当结合检测及跟踪进行停车事件检测时,无法兼顾检测效率和跟踪性能。

而在本发明一实施例中,采用运动匹配与表观匹配相结合进行目标跟踪,所述针对所述目标车辆对象,确定与所述第N+1帧图像数据中每个车辆对象的关联度信息,包括:

针对所述目标车辆对象,确定与所述第N+1帧图像数据中每个车辆对象的运动匹配信息与表观匹配信息;采用所述运动匹配信息与所述表观匹配信息,确定与所述第N+1帧图像数据中每个车辆对象的关联度信息。

在获取第N帧图像数据的目标车辆对象之后,可以针对目标车辆对象,确定该目标车辆对象与第N+1帧图像数据中每个车辆对象的运动匹配信息与表观匹配信息,进而可以通过运动匹配信息与表观匹配信息,确定该目标车辆对象与第N+1帧图像数据中每个车辆对象的关联度信息。

由于单一的运动匹配进行跟踪时无法检测效率和跟踪性能,通过将运动匹配与表观匹配的结合,可以在提升跟踪的性能的同时,也确保停车事件检测效率。

在一示例中,多目标跟踪主要解决的是帧与帧之间同一目标车辆对象的匹配,匹配可以包括运动匹配、表观匹配和综合匹配。

(1)匹配算法为匈牙利算法,其过程可简述为:

a.C矩阵存放所有物体跟踪i与物体检测j之间距离的计算结果,B矩阵存放所有物体跟踪i与物体检测j之间是否关联的判断;

b.初始化关联集合M,初始化尚未的物体检测集合D;

c.循环遍历每一个在已经匹配成功的轨迹,选择满足条件的跟踪轨迹集合(使用级联匹配首先保证对最近出现的目标赋予最大的优先权)

d.根据最小成本算法计算出与物体检测j关联成功产生的集合;

e.更新M为匹配成功的集合,并去除U中已经匹配成功的物体检测

f.返回M和U两个集合并循环以上过程。

(2)在实际应用中,可以通过以下方式得到运动匹配,得到运动匹配信息:

对已存在的目标(第N帧图像数据中获取的目标车辆对象)利用卡尔曼滤波进行运动预测,得到结果y

其中,d

如果某次关联的马氏距离小于指定的阈值,则称为该第N帧图像数据中获取的目标车辆对象与第N+1帧图像数据中某一车辆对象关联成功(二者极有可能为同一车辆):

(3)在实际应用中,可以通过以下方式得到表观匹配,得到表观匹配信息:

采用余弦度量的方式可以生成物体检测的外观特征向量,这样就能产生聚类的效果,即同一个物体即便在不同的图片中生成的外观特征向量之间的余弦距离也是很小的。

在Deep SORT算法中,目标检测结果与目标运动预测结果之间的外观度量可以采用余弦度量计算:

其中,r

计算特征向量的过程中,采用如图3所示的卷积神经网络对检测目标进行128维的外观特征提取。

(4)在实际应用中,可以通过以下方式得到综合匹配,得到关联度信息:

关联度信息可以是关联度量,关联度量为马氏距离度量与余弦相似性度量的加权结合:

C

其中,λ为加权系数,在拍摄视频数据的相机运动的情况下,可将λ设置为零。

在一示例中,在第N+1帧图像数据中确定所述目标车辆对象后,判断第 N+1帧图像数据是否是第二帧图像数据,当第N+1帧图像数据不是第二帧图像数据时,可以继续执行对第N+1帧图像数据中的目标车辆对象的跟踪,当第N+1帧图像数据为第二帧图像数据时,可以结束跟踪,在第二帧图像数据中确定第一帧图像数据检测得到的一个或多个车辆对象。

步骤204,确定所述车辆对象在所述第二帧图像数据中的第二检测信息;

步骤205,根据所述第一检测信息和所述第二检测信息,从所述一个或多个车辆对象中,确定存在停车事件的停车车辆对象。

在本发明实施例中,通过获取视频数据,在所述停车事件的检测周期中,可以对视频数据的第一帧图像数据进行检测,得到一个或多个车辆对象,并确定一个或多个车辆对象的第一检测信息,进而可以针对第一帧图像数据中每个车辆对象,依次在视频数据中排序在第一帧图像数据之后的图像数据中进行跟踪,以在视频数据的第二帧图像数据中确定车辆对象,进而可以确定车辆对象在第二帧图像数据中的第二检测信息,因此,可以根据第一检测信息和第二检测信息,从一个或多个车辆对象中,确定存在停车事件的停车车辆对象,实现了对停车事件的判断,提高了停车事件检测方法的准确性,有效地避免误判。

图4a为YOLOV3网络中停车事件检测的流程图示例,以下结合图4a 对本发明实施例进行示例性说明:

1、停车事件数据集的构建

可以采集不同时间和不同环境的车辆样本,构建包含停车行为的样本集即实现了停车事件数据集的构建,通过构建的停车事件数据集(样本集),可以进一步训练用于检测图像数据的深度学习模型,其中,不同时间和不同环境下的车辆样本可以包括白天、晚上、晴天、阴天、雨天多种条件下采集的车辆样本。

2、基于深度学习目标检测

在停车事件数据集的构建后,可以依据构建的停车事件数据集进行基于深度学习目标检测,基于深度学习目标检测包括YOLOV3车辆检测模型训练(深度学习模型训练)和YOLOV3车辆检测模型预测(通过深度学习模型对第一帧图像数据进行检测)。

3、多目标跟踪

运用Deep Sort多车辆跟踪算法对第一帧图像数据中多个车辆对象进行跟踪。

4、停车判别策略

通过同一运动目标(第一帧图像数据一个或多个车辆对象和第二帧图像数据中的确定的车辆对象)在K帧间(间隔第一预设帧数)定位框重叠面积变化率的计算,确定一个或多个车辆对象中存在停车事件的停车车辆对象。

5、输出停止车辆(停车车辆对象)坐标位置信息(即第二检测信息)

在确定存在停车事件的停车车辆对象后,可以输出存在停车事件的停车车辆对象的第二检测信息,第二检测信息可以包括定位框坐标、定位框宽参数、定位框高参数,

图4b为一种停车事件检测检测的流程图的示例,以下结合图4b对本发明实施例进行示例性说明:

1)车辆检测

可以通过YOLOv3目标检测算法对视频图像数据中第一帧图像数据进行检测,得到一个或多个车辆对象,并确定一个或多个车辆对象的第一检测信息,其中,第一检测信息可以包括定位框左上角坐标、定位框的宽参数、高参数。

2)车辆跟踪

运用Deep_Sort算法对YOLOv3目标检测算法检测到的车辆对象(获取第N帧图像数据中的目标车辆对象)进行跟踪,输出当前帧(视频数据中的第N+1帧图像数据)中车辆跟踪ID(车辆编号)和跟踪检测框位置(定位框坐标、定位框宽参数、定位框高参数)。

3)当前帧是否为初始帧

对当前帧(第N帧图像数据)判断是否为初始帧(第一帧图像数据),如果当前帧是初始帧,记录当前帧中每个车辆对象的跟踪输出信息(跟踪输出信息可以包括车辆编号,定位框坐标、定位框宽参数、定位框高参数,当确定当前帧为第一帧图像数据时,可以确定一个或多个车辆对象在第一帧图像数据的第一检测信息),否则执行第四步。

4)是否间隔K帧(判断第N+1帧图像数据是否是第二帧图像数据)

对当前帧(第N+1帧图像数据)判断是否和初始帧(第一帧图像数据) 间隔K帧(第一预设帧数),如果是(第N+1图像为第二帧图像数据时),执行第五步,否则执行第一步。

5)判断目标跟踪ID是否与上一次记录相同

对当前帧中车辆跟踪输出的ID信息和已记录的车辆跟踪ID信息进行判别,如果相同(在第二帧图像数据中确定车辆对象,并确定车辆对象在第二帧图像数据的第二检测信息)执行第六步,否则执行第一步。

6)计算IOU

根据第一检测信息和第二检测信息计算定位框重叠面积变化率(IOU

7)判断IOU

判断当前帧中是否有车辆的IOU

8)判断是否为已记录停车车辆

判断满足条件的车信息是否已经记录在停车列表中,如果无,记录该停车车辆并上报事件信息,否则进行第一步。

在实际应用中,将定位框重叠面积变化率大于预设定位框重叠面积变化率的车辆对象确定为存在停车事件的停车车辆对象,在确定停车车辆对象后,可以获取停车车辆的车辆编号,可以进一步确定车辆编号是否为停车列表中记录的车辆编号,如果没有记录该车辆编号,在停车列表中记录车辆编号以及第二检测信息,并上报停车事件。

需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。

参照图5,示出了本发明一实施例提供的一种停车事件的检测装置的结构示意图,具体可以包括如下模块:

视频数据获取模块501,用于获取视频数据;

第一帧图像数据检测模块502,用于在所述停车事件的检测周期中,对所述视频数据的第一帧图像数据进行检测,得到一个或多个车辆对象,并确定所述一个或多个车辆对象在所述第一帧图像数据中的第一检测信息;

车辆对象跟踪模块503,用于对所述一个或多个车辆对象进行跟踪,得到所述一个或多个车辆对象在所述视频数据的第二帧图像数据中的第二检测信息;其中,所述第二帧图像数据为在所述视频数据中排序在所述第一帧图像数据之后的图像数据;

停车车辆对象确定模块504,用于根据所述第一检测信息和所述第二检测信息,从所述一个或多个车辆对象中,确定存在停车事件的停车车辆对象。

作为一种示例,所述第一检测信息或所述第二检测信息包括以下任一项或多项:

定位框坐标,定位框宽参数,定位框高参数。

在本发明一实施例中,所述第一帧图像数据检测模块502包括:

第一帧图像数据输入子模块,用于在所述停车事件的检测周期中,将所述视频数据的第一帧图像数据输入预置的深度学习模型,其中,所述深度学习模型用于结合所述第一帧图像数据的环境信息,对所述第一帧图像数据进行检测;

接收子模块,用于接收所述深度学习模型输出的针对所述第一帧图像数据的一个或多个车辆对象。

在本发明一实施例中,所述车辆对象跟踪模块503包括:

车辆对象确定子模块,用于跟踪针对所述第一帧图像数据中每个车辆对象,依次在所述视频数据中排序在所述第一帧图像数据之后的图像数据中进行跟踪,以在所述视频数据的第二帧图像数据中确定所述车辆对象;

第二检测信息确定子模块,用于确定所述车辆对象在所述第二帧图像数据中的第二检测信息。

在本发明一实施例中,在所述第一帧图像数据和所述第二帧图像数据之间存在第N帧图像数据与第N+1帧图像数据,所述车辆对象确定子模块包括:

目标车辆对象获取单元,用于获取所述第N帧图像数据中的目标车辆对象;

关联度信息确定单元,用于针对所述目标车辆对象,确定与所述第N+1 帧图像数据中每个车辆对象的关联度信息;

目标车辆对象确定单元,用于根据所述关联度信息,在所述第N+1帧图像数据中确定所述目标车辆对象。

在本发明一实施例中,所述关联度信息确定单元包括:

匹配信息确定子单元,用于针对所述目标车辆对象,确定与所述第N+1 帧图像数据中每个车辆对象的运动匹配信息与表观匹配信息;

关联度信息确定子单元,用于采用所述运动匹配信息与所述表观匹配信息,确定与所述第N+1帧图像数据中每个车辆对象的关联度信息。

在本发明一实施例中,所述停车车辆对象确定模块504包括:

定位框重叠面积变化率确定子模块,用于根据所述第一检测信息和所述第二检测信息,分别确定所述一个或多个车辆对象的定位框重叠面积变化率,其中,所述定位框重叠面积变化率为所述一个或多个车辆对象在所述第一帧图像数据的定位框面积与所述第二帧图像数据中的定位框面积的变化率;

停车车辆对象确定子模块,用于将所述定位框重叠面积变化率大于预设定位框重叠面积变化率的车辆对象确定为存在停车事件的停车车辆对象。

在本发明实施例中,通过获取视频数据,在所述停车事件的检测周期中,可以对视频数据的第一帧图像数据进行检测,得到一个或多个车辆对象,并确定一个或多个车辆对象的第一检测信息,进而可以通过对一个或多个车辆对象进行跟踪,得到一个或多个车辆对象在视频数据的第二帧图像数据中的第二检测信息,并根据第一检测信息和第二检测信息,从一个或多个车辆对象中,确定存在停车事件的停车车辆对象,实现了对停车事件的判断,提高了停车事件检测方法的准确性,有效地避免误判。

本发明一实施例还提供了一种电子设备,可以包括处理器、存储器及存储在存储器上并能够在处理器上运行的计算机程序,计算机程序被处理器执行时实现如上停车事件的检测方法。

本发明一实施例还提供了一种计算机可读存储介质,计算机可读存储介质上存储计算机程序,计算机程序被处理器执行时实现如上停车事件的检测方法。

对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。

本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。

本领域内的技术人员应明白,本发明实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。

本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。

最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。

以上对所提供的一种停车事件的检测方法和装置,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号