首页> 中国专利> 一种易受伤害道路使用者的联合检测方法

一种易受伤害道路使用者的联合检测方法

摘要

本发明公开了一种易受伤害道路使用者联合检测的方法,包括离线训练阶段和在线目标检测阶段,其中:所述离线训练阶段包括:1)建立易受伤害道路使用者数据库,该数据库分为训练样本集和测试样本集;2)根据所述训练样本集构建能够从背景中分辨易受伤害道路使用者目标的VRU检测器;所述在线目标检测阶段包括:3)利用所述VRU检测器对所述测试样本集中的目标进行分类和定位并输出检测结果。本发明可用于先进驾驶辅助系统中易受伤害道路使用者的保护,也可为无人驾驶车辆的决策提供帮助。

著录项

  • 公开/公告号CN105631440A

    专利类型发明专利

  • 公开/公告日2016-06-01

    原文格式PDF

  • 申请/专利权人 清华大学;

    申请/专利号CN201610095187.7

  • 申请日2016-02-22

  • 分类号G06K9/00(20060101);G06K9/62(20060101);G06N3/02(20060101);

  • 代理机构北京汇智胜知识产权代理事务所(普通合伙);

  • 代理人石辉

  • 地址 100084 北京市海淀区清华园

  • 入库时间 2023-12-18 15:50:57

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2019-01-22

    授权

    授权

  • 2017-05-24

    专利申请权的转移 IPC(主分类):G06K9/00 登记生效日:20170504 变更前: 变更后: 申请日:20160222

    专利申请权、专利权的转移

  • 2016-10-12

    著录事项变更 IPC(主分类):G06K9/00 变更前: 变更后: 申请日:20160222

    著录事项变更

  • 2016-06-29

    实质审查的生效 IPC(主分类):G06K9/00 申请日:20160222

    实质审查的生效

  • 2016-06-01

    公开

    公开

说明书

技术领域

本发明涉及计算机视觉技术及智能汽车领域,尤其涉及一种车辆行驶环境 下易受伤害道路使用者的联合检测方法。

背景技术

在最近一二十年里,先进驾驶辅助系统(如自适应巡航系统,前撞报警系 统等)的迅速发展提高了道路交通安全。然而,那些易受伤害道路使用者(英 文全称为“VulnerableRoadUsers”,简称为“VRU”),比如行人、骑自行车的 人(下文简称为“自行车人”)、骑电动车的人(下文简称为“电动车人”) 及其他小型两轮交通工具乘用者等受到的保护依然有限。根据2013年WHO道路 安全报告统计,全球近一半的交通事故死亡者为易受伤害道路使用者,而在一 些中低收入国家中,最脆弱的行人和自行车人的比例更为突出。考虑到易受伤 害道路使用者的速度慢且一般没有特殊保护措施(如安全头盔),对它们的保 护尤为迫切。其中,易受伤害道路使用者的准确检测是保护他们的根本所在。

车辆周边环境感知系统可以使用不同传感器技术,如单目视觉、双目视觉、 激光雷达和毫米波雷达等。聚焦于易受伤害道路使用者识别的领域,视觉传感 器因其可以获取丰富场景信息的能力而倍受青睐,如颜色及环境上下文信息等。 不仅如此,相对于主动传感器,视觉传感器价格低廉,且可以同时处理其他多 种任务,如车道线和标志牌检测等。

虽然基于视觉的行人检测已经被研究了很多年,实际应用中由行人姿态、 遮挡等带来的挑战问题还依然存在。相对于行人检测,自行车人及电动车人等 目标的检测被研究的很少,因为相对于行人,自行车人及电动车人检测面临的 挑战更多:自行车、电动车的类型和骑车人的衣着导致自行车人和电动车人的 外表变化大,骑车人的姿态变化导致自行车人和电动车人的整体外形变化大, 不同的观察角度导致自行车人和电动车人的高宽比变化大,自行车人和电动车 人还可能被自己或外部物体遮挡等。

因为行人和骑车人具有相似的外表,已存在的行人检测方法常常将骑车人 检测为行人。但是自行车人和电动车人等目标的运动速度比行人快、机动能力 比行人高,这就要求驾驶辅助系统和无人驾驶车辆需要给予行人、自行车人、 电动车人等目标不同的关注程度。因此,对于先进驾驶辅助系统和无人驾驶车 辆来说,清楚的区分行人、自行车人和电动车人等目标是很有必要的。虽然这 些易受伤害道路使用者常常同时出现在驾驶环境中,传统的目标检测方法都是 将这些目标分开检测,这不仅会造成多次扫描输入图像,还会得到混淆的检测 结果,造成无法分清行人、自行车人或电动车人。

因此,希望有一种技术方案来克服或至少减轻现有技术的至少一个上述缺 陷。

发明内容

本发明的目的在于提供一种易受伤害道路使用者的联合检测方法来克服 或至少减轻现有技术中的至少一个上述缺陷。

为实现上述目的,本发明提供一种易受伤害道路使用者联合检测的方法, 包括离线训练阶段和在线目标检测阶段,其中:所述离线训练阶段包括:1) 建立易受伤害道路使用者数据库,该数据库分为训练样本集和测试样本集;2) 根据所述训练样本集构建能够从背景中分辨易受伤害道路使用者目标的VRU 检测器;所述在线目标检测阶段包括:3)利用所述VRU检测器对所述测试样 本集中的目标进行分类和定位并输出检测结果。

进一步地,所述步骤2)具体包括以下子步骤:21)使用所述训练样本集 中的正样本训练上半身检测器;22)根据检测目标上半身位置与真实的目标位 置的关系获得多潜在区域参数;23)使用所述训练样本集训练卷积神经网络模 型,得到所述CNN模型。

进一步地,所述步骤2)的步骤23)中,利用网络模型对所述训练样本集 训练卷积神经网络模型,得到所述CNN模型。

进一步地,所述步骤2)的子步骤22)后还包括:24)以目标召回率为优 化函数,使用智能优化算法对所述步骤22)得到的多潜在区域参数进行迭代 优化,以能够在检测到的候选目标上半身周围,最大程度地覆盖到整体目标。

进一步地,所述步骤2)的子步骤23)后还包括:25)利用所述CNN模型 计算多潜在区域的分类结果及位置信息,以训练回归定位模型。

进一步地,所述步骤21)具体为利用聚合通道特征及AdaBoost分类器训 练上半身检测器,以提取可能存在的目标的区域,该区域为所述在线目标检测 阶段的检测区域。

进一步地,所述步骤22)的目标上半身位置与真实目标位置的关系为:

Gx=Ux+(1+2κx)Uw/2-Gw/2Gy=Uy+κyUhGw=κwUwGh=κhUh

式中:U(Ux,Uy,Uw,Uh)为目标上半身位置,G(Gx,Gy,Gw,Gh)为真实目标位 置,κ*为设定的概率密度模型的参数。

进一步地,所述步骤3)具体包括以下子步骤:31)使用所述上半身分类 器检测测试样本集中样本图像可能的目标上半身;32)基于所述多潜在区域参 数提取目标多潜在区域;33)使用所述CNN模型计算各候选目标的潜在区域的 分类结果;34)根据目标各潜在区域的分类结果确定目标类别;35)根据所述 目标类别及位置信息,使用所述回归定位模型确定目标位置。

进一步地,所述训练样本集在训练前以及所述测试样本集在检测前还包括 白平衡图像预处理步骤。

本发明由于采取以上技术方案,其具有以下优点:1、本发明基于单目视 觉输入车载相机图像建立统一的VRU检测器,可以同时检测行人、自行车人及 电动车人等易受伤害道路使用者,且可以清楚的区分开来。此过程不需要多次 扫描输入图像,不会混淆不同类型的目标,可为先进驾驶辅助系统和无人驾驶 车辆的决策提供有效帮助。2、使用人的上半身作为目标候选区域提取的方法, 辅以多潜在目标区域的设计与提取,可有效提取并尽可能的覆盖所有潜在的行 人、自行车人及电动车人等目标。3、使用深度卷积神经网络作为分类器提取 分类特征,并结合目标多潜在区域的分类及位置信息,可实现目标的准确分类 及精确定位。本发明可用于先进驾驶辅助系统中易受伤害道路使用者的保护, 也可为无人驾驶车辆的决策提供帮助。

附图说明

图1是本发明的系统流程图;

图2是本发明实施例中多潜在区域的示意图;

图3是本发明实施例中卷积神经网络的示意图。

具体实施方式

为使本发明实施的目的、技术方案和优点更加清楚,下面将结合本发明实 施例中的附图,对本发明实施例中的技术方案进行更加详细的描述。在附图中, 自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的 元件。所描述的实施例是本发明一部分实施例,而不是全部的实施例。下面通 过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对 本发明的限制。基于本发明中的实施例,本领域普通技术人员在没有作出创造 性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。下面结合 附图对本发明的实施例进行详细说明。

在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“前”、 “后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方 位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和 简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定 的方位构造和操作,因此不能理解为对本发明保护范围的限制。

本发明所提供的易受伤害道路使用者联合检测的方法可用于先进驾驶辅 助系统中易受伤害道路使用者的保护,也可为无人驾驶车辆的决策提供帮助。 通过对易受伤害道路使用者目标(下文简称为“目标”)建立数据库,根据数 据库构建能够从背景中分辨目标的VRU检测器,从而通过VRU检测器达到对目 标进行检测的目的。目标的类型包括人、低速两轮交通工具乘用者(比如:自 行车人)和高速两轮交通工具乘用者(比如:电动车人)。

如图1所示,本实施方式,包括离线训练阶段和在线目标检测阶段,其中:

所述离线训练阶段包括:

1)建立易受伤害道路使用者数据库:易受伤害道路使用者经常出现在道 路上,但是相比于行人受到的关注程度,自行车人和电动车人等易受伤害道路 使用者几乎没有公开的数据库。KITTI目标检测数据库虽然提供了自行车人的 类别,但目标数量很少且标注信息不足。本实施方式建立了易受伤害道路使用 者数据库,该数据库包括易受伤害道路使用者等诸多目标类型,且标注了骑车 人及交通工具等详细目标信息。该数据库分为训练样本集和测试样本集,均为 单目视觉输入的车载相机图像。并且,训练样本集用于训练CNN (ConvolutionalNeuralNetwork)模型,目前使用的训练样本集的图片超过 15000张,仅在离线训练阶段中使用。测试样本集用于测试CNN模型,目前使 用的测试样本集的图片约2500张,仅在在线目标检测阶段中使用。

2)根据所述训练样本集构建能够从背景中分辨易受伤害道路使用者目标 的VRU检测器。

所述在线目标检测阶段包括:

3)利用所述VRU检测器对所述测试样本集的样本图像中的目标进行分类 和定位,以确定目标位置,并输出检测结果。

上述实施方式中是基于单目视觉输入车载相机图像建立统一的VRU检测 器,可以同时检测行人、自行车人及电动车人等易受伤害道路使用者,且可以 清楚的区分开来。此过程不需要多次扫描输入图像,不会混淆不同类型的目标, 可为先进驾驶辅助系统和无人驾驶车辆的决策提供有效帮助。

所述步骤2)具体包括以下子步骤:

21)使用所述训练样本集中的正样本训练上半身检测器,所述上半身检测 器能够用于检测样本图像中的目标的上半身(下文简称为“目标上半身”):所 述训练样本集中的图像包括正样本和负样本,其中,正样本是包含目标的图像 区域(或片段),如图2所示,图中示出的多个矩形的目标包围框R1,R2,R3,R4,R5为多个正样本标注框。每一个正样本标注框坐标可表示为(x1,y1,w,h),其 中:(x1,y1)表示正样本标注框左上角点在图像坐标系中的坐标值。图像坐标 系可以选择样本图像的左上角作为原点,图像的横向为X轴(比如图2示出 的从左往右为正方向),纵向为Y轴(比如图2示出的从下往上为正方向)。w 表示为正样本标注框的高度,h表示为正样本标注框的宽度。负样本与正样本 相反,是样本图像中不包含上述目标(行人、自行车人和电动车人等)的图像 区域。

本实施方式中,定义目标上半身为人身体最上方的正方向,其边长与人的 宽度相同,这里的“人”在行人目标中指的是整个目标,在自行车人和电动车 人等目标中指的是骑车者。正样本包括目标上半身的图像区域或片段,相对应 地,负样本为所述训练样本集中正样本之外的图像区域或片段,即不包含目标 上半身的图像区域或片段。该步骤具体为:

首先,提取样本图像的HOG(HistogramofOrientedGradient,方向梯度直 方图)特征、LUV(L表示物体亮度,U和V是色度颜色通道)及梯度幅值特 征通道,以构建聚合通道特征图。然后,利用构建好的聚合通道特征图及使用 AdaBoost级联分类器训练所述上半身检测器,以提取可能存在目标的区域, 该区域为所述在线目标检测阶段的检测区域。

22)根据所述训练样本集中样本中目标上半身位置与真实的目标位置的关 系,获得多潜在区域参数多潜在区域参数表示一个上半身位置可以生成 多个可能存在目标的区域,能够用于提取样本图像中的多潜在区域。多潜在区 域参数的获得具体为:在检测的目标上半身周围定义多个潜在区域,该潜在 区域具有固定的数目,旨在尽可能完全的覆盖训练样本中所有的易受伤害道路 使用者目标。

本实施方式中,目标上半身与多潜在区域的关系示意图如图2所示,图中 的标注框U(Ux,Uy,Uw,Uh)代表目标上半身位置,标注框中:(x,y)分别表示标 注框的左上角坐标,w,h分别代表标注框的宽和高。标注框U(Ux,Uy,Uw,Uh)周 围画出了五个潜在区域R1,R2,R3,R4,R5。定义目标上半身位置U(Ux,Uy,Uw,Uh)与 真实的目标位置G(Gx,Gy,Gw,Gh)的关系为:

Gx=Ux+(1+2κx)Uw/2-Gw/2Gy=Uy+κyUhGw=κwUwGh=κhUh

式中:κ*为设定的概率密度函数的参数,即一个κ*包含一组参数 (κxywh),该参数代表目标上半身位置与潜在区域的映射关系。根据目 标上半身位置与真实的目标位置的关系统计,可推导出κ*的概率密度函数,对 κ*的概率密度函数进行顺序重要性采样,比如蒙特卡洛采样方法,可得到具有 代表性的多潜在区域参数该多潜在区域参数是κ*的集合,包含M组κ*参 数,并代表多潜在区域提取过程的参数,可以理解为多潜在区域参数包含M 组κ*,每组κ*xywh)对应一组目标上半身位置到潜在区域的映射。

需要说明的是:R1,R2,R3,R4,R5仅仅是举例说明多潜在区域的情况,实际使 用各种需要用到几十个潜在区域,比如上述提到的M个。通过上述概率模型可 以得到具有代表性的κ*的集合在测试过程中一个检测的目标上半身位置根 据参数就可以映射出M个潜在区域。

23)使用所述训练样本集中样本训练卷积神经网络模型,得到CNN模型, 所述CNN模型能够用于对目标周围的潜在区域进行分类和识别。训练卷积神经 网络模型的方法具体如下:

利用深度网络模型对所述训练样本集训练卷积神经网络模型,得到所述 CNN模型。其中的网络模型结构可以参照CaffeNet网络,但不限于此。训练 时,以ImageNet上预训练的网络模型(如bvlc_reference_caffenet网络, 但不限于此)为基础使用准备的数据库进行微调,网络结构示意图如图3所示, 图3示出的卷积神经网络模型包括输入层(图3中的输入图像)、五个卷积层 (图3中的Conv(Convolutionallayer)1、Conv(Convolutionallayer)2、 Conv(Convolutionallayer)3、Conv(Convolutionallayer)4、Conv(Convolutional layer)5)和两个全连接层(图3中的FC(Fullyconnectedlayer)6、FC(Fully connectedlayer)7),前一层可将输入数据前向传导到下一层,下一层可将训练 输出误差后向传导给上一层。并且,每一层上显示的A×B×C,A×B表示该层特 征图的个数,C表示每个特征图的大小,比如:第一层卷积层Conv1大小为 55*55*96,96表示该层特征图的个数,55*55表示每个特征图的大小。也就是 说,网络输入为拉伸变形后的样本图像(227×227×3),经过五个卷积层和两 个全连接层后输出四种类型的概率分数,包括行人、低速两轮交通工具乘用者 (包括自行车人Cyclist、形似自行车的小型电动车乘用者Moped等)、高速 两轮交通工具乘用者(形似摩托车的电动车Scooter及摩托车乘用者 Motorcyclist等)及背景。所述CNN模型的优点是输入图像像素可以直接得 到分类结果,而不需要特意的设计样本特征。为增强所述CNN模型对变化目标 变化的识别能力,在训练前正样本会经过旋转、平移及放缩变化,以扩充正样 本数量并提高模型对目标变形的适应程度。

上述步骤2)中,子步骤22)后还包括:

24)以目标召回率为优化函数,使用智能优化算法对所述步骤22)得到 的多潜在区域参数进行迭代优化,以能够在检测到的候选目标上半身周围,最 大程度地覆盖到整体目标。此处的“最大程度”指的是利用多潜在区域参数设计 将目标的整体尽可能覆盖完全。虽然步骤22)中可得到M个具有代表性的参 数κ*,但并不能保证这些参数具有足够好的变化性能以达到最大程度地覆盖所 有目标的目的。本实施方式中,智能优化算法比如可以但不限于选用遗传算法, 通过遗传算法迭代参数,以训练集上平均召回率为优化目标,对已获取的参数 κ*进行进一步的优化改进。

上述步骤2)中,子步骤23)后还包括:

25)利用所述CNN模型计算多潜在区域的分类结果及位置信息,以训练回 归定位模型所述回归定位模型能够用于对CNN模型分类和识别出来的 目标周围的潜在区域进行分类和识别,并输出检测结果。

训练回归定位模型的方法具体如下:

计算围绕目标上半身提取的多潜在区域的分类结果后,依据非最大抑制原 则得到目标类别及位置。因为每个目标的潜在区域个数有限,目标的精确位置 并不能够得到。为优化目标定位,对各潜在区域的位置求加权平均得到初始目 标位置,再根据初始的目标位置与实际的目标位置的差别训练回归模型,该位 置回归模型可实现初试目标位置的优化定位。

上述步骤中,所述训练样本集在训练前还包括白平衡图像预处理步骤,通 过白平衡图像预处理步骤,消除图像颜色不均匀的影响。

在线目标检测阶段,首先对输入测试样本集中的样本图像进行预处理,进 而使用目标上半身检测器检测图像中可能的目标上半身位置,基于设计的多潜 在区域参数提取多潜在区域,继而使用训练的CNN模型计算各潜在目标的分类 结果,对比各分类结果确定目标类别,最后回归优化目标位置,得到并输出识 别结果。各步骤的详细介绍如下:

所述步骤3)具体包括以下子步骤:

31)使用所述上半身分类器检测测试样本集中样本图像可能的目标上半身: 提取输入图像的HOG特征、LUV颜色通道及梯度幅值特征通道,构建聚合通道 特征图并使用训练好的AdaBoost级联分类器遍历图像金字塔,识别结果经非 最大抑制处理后即为可能存在目标上半身位置。为防止下个步骤中的潜在区域 提取过多,影响算法的效率,这里最多选取得分最高的前N个目标上半身作为 候选目标上半身。

32)基于所述多潜在区域参数提取目标多潜在区域:围绕目标上半身提取 多潜在区域。基于训练过程中设计的多潜在区域参数在每个可能的目标上半 身周围提取多潜在区域。因为每个目标上半身周围需要提取M个潜在区域,故 共有M×N个潜在区域输入到后面的步骤中。

33)使用所述CNN模型计算各候选目标的潜在区域的分类结果:使用训练 的卷积神经网络计算各潜在区域的分类结果。将每个潜在区域输入到训练的 CNN模型中,分别计算各自的分类结果。

34)根据目标各潜在区域的分类结果确定目标类别:根据各潜在区域分类 结果确定目标类别。每个目标周围可能会存在多个分类得分较高的潜在区域, 根据这些区域的分类结果结合它们各自的位置信息,使用非最大抑制原则得到 目标类别及大致位置。

35)根据所述目标类别及位置信息,使用所述回归定位模型确定目标位置: 根据各潜在区域分类结果及位置信息,使用回归定位模型确定目标位置。每个 目标周围可能存在多个分类得分较高的潜在区域,这些潜在区域都对目标所在 位置有贡献,某一个区域的位置并不能得到精确的目标位置。结合多个潜在区 域的位置及分类信息,使用加权平均的方法得到初始目标位置,接着使用训练 过程中得到的定位回归模型优化初始位置得到精确目标位置。

36)输出并显示识别结果,该结果包括目标包围框所在位置及目标类别。 该输出结果可进一步使用多目标跟踪方法进行跟踪优化,并得到目标速度及方 位信息,为先进驾驶辅助系统和无人驾驶车辆的决策提供有效帮助。

上述步骤中,所述测试样本集在检测前还包括白平衡图像预处理步骤。通 过白平衡图像预处理步骤,消除图像颜色不均匀的影响。

最后需要指出的是:以上实施例仅用以说明本发明的技术方案,而非对其 限制。尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人 员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对 其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案 的本质脱离本发明各实施例技术方案的精神和范围。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号