首页> 中国专利> 图像/电视制导飞行器上稳姿稳像的目标识别系统及方法

图像/电视制导飞行器上稳姿稳像的目标识别系统及方法

摘要

本发明公开了一种图像/电视制导飞行器上稳姿稳像的目标识别系统及方法,该系统中通过电视摄像头实时采集目标区域图像序列,通过电子稳像技术实现运动偏移图像序列的高精度稳像,阻尼回路部件设计提高图像/电视制导飞行器姿态稳定性,将处理后的图像序列输入深度学习算法模型,获得实时有效的、准确的目标的位置信息,进行自主目标检测与跟踪,从而实现精确识别并跟踪命中目标。

著录项

  • 公开/公告号CN114967715A

    专利类型发明专利

  • 公开/公告日2022-08-30

    原文格式PDF

  • 申请/专利权人 北京信息科技大学;

    申请/专利号CN202210391446.6

  • 申请日2022-04-14

  • 分类号G05D1/08(2006.01);G05D1/10(2006.01);

  • 代理机构北京康思博达知识产权代理事务所(普通合伙) 11426;

  • 代理人范国锋

  • 地址 100192 北京市海淀区清河小营东路12号

  • 入库时间 2023-06-19 16:36:32

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2022-09-16

    实质审查的生效 IPC(主分类):G05D 1/08 专利申请号:2022103914466 申请日:20220414

    实质审查的生效

说明书

技术领域

本发明涉及飞行器制导控制领域,具体涉及一种图像/电视制导的目标识别及飞行器控制方案。

背景技术

“智能化”图像/电视制导飞行器应具有自主的目标识别、锁定、制导、控制等一系列功能。然而目前,图像/电视制导飞行器仍伴随有人在回路,并不具有目标自主识别与锁定功能;考虑到气动扰动、模型不确定性、目标机动性等因素的影响,在飞行过程中,飞行器姿态抖动强烈,目标丢失的现象时有发生,这为图像/电视制导飞行器自主识别目标带来严峻挑战。

基于上述问题,本发明人对图像/电视制导飞行器做了深入研究,以期待设计出一种能够解决上述问题的图像/电视制导飞行器上稳姿稳像的目标识别系统及方法。

发明内容

为了克服上述问题,本发明人进行了锐意研究,设计出一种图像/电视制导飞行器上稳姿稳像的目标识别系统及方法,该系统中通过电视摄像头实时采集目标区域图像序列,通过电子稳像技术实现运动偏移图像序列的高精度稳像,阻尼回路部件设计提高图像/电视制导飞行器姿态稳定性,将处理后的图像序列输入深度学习算法模型,获得实时有效的、准确的目标的位置信息,进行自主目标检测与跟踪,从而实现精确识别并跟踪命中目标,从而完成本发明。

具体来说,本发明的目的在于提供以一种图像/电视制导飞行器上稳姿稳像的目标识别系统,其特征在于,该系统包括:

图像处理模块1和制导控制模块2,

其中,所述图像处理模块1用于识别并锁定目标,获得目标与飞行器相对位置信息,

所述制导控制模块2用于通过舵机调整飞行器的姿态,使得飞行器平稳地飞向目标。

其中,所述图像处理模块1包括电视摄像头11、电子稳像子模块12、图像导引头13和粒子滤波子模块14;

其中,所述电视摄像头11用于实时采集目标区域图像;

所述电子稳像子模块12对电视摄像头11输入的图像信号进行运动补偿,以稳定图像序列;

所述图像导引头13采用YOLO算法模型对所述图像进行检测识别,从而锁定目标;

所述粒子滤波子模块14用于根据图像导引头13给出的目标在图像中的位置信息,获得飞行器相对目标的距离r、视线偏角θ和视线倾角φ。

其中,所述YOLO算法模型包括特征提取部131、特征融合部132和检测输出部133;

其中,通过所述特征提取部131从图像中提取特征信息,

通过所述特征融合部132将提取获得的特征信息融合成三种尺度的特征图,

通过所述检测输出部133利用所述特征图对目标位置进行检测,获得目标位置信息。

其中,所述制导控制模块2包括惯导子模块21、微处理器 22和舵机23;

其中,通过所述惯导子模块21实时获得飞行器的姿态信息,

通过微处理器22基于目标与飞行器相对位置信息和飞行器的姿态信息实时获得需用过载,并进一步获得舵指令;

通过所述舵机23根据所述舵指令打舵执行。

其中,在所述制导控制模块2中还设置有阻尼回路,通过所述阻尼回路提高飞行器的稳定性。

其中,所述阻尼回路实时根据期望阻尼μ

所述微处理器22获得的需用过载与所述增益K

其中,所述增益K

中,μ

T

μ

T

k

A表示中间变量,通过下式获得:

A=μ

本发明还提供一种图像/电视制导飞行器上稳姿稳像的目标识别方法,该方法包括如下步骤:

步骤1,通过电视摄像头11实时采集目标区域图像;

步骤2,通过电子稳像子模块12对电视摄像头11输入的图像信号进行运动补偿,以稳定图像序列;

步骤3,通过采用YOLO算法模型对所述图像进行检测识别,从而锁定目标;

步骤4,通过粒子滤波子模块14获得飞行器相对目标的距离r、视线偏角θ和视线倾角φ。

步骤5,通过所述惯导子模块21实施获得飞行器的姿态信息,

步骤6,通过微处理器22实时获得需用过载,

步骤7,通过舵机23生成舵指令,并执行。

其中,在步骤6中,所述微处理器22在获得需用过载后,将所述需要过载与通过阻尼回路获得的增益K

本发明所具有的有益效果包括:

(1)根据本发明提供的图像/电视制导飞行器上稳姿稳像的目标识别系统,针对电视摄像头搭载于高速运动的平台时,所采集的图像序列会随着平台快速变化的问题,添加了图像处理模块中的电子稳像子模块和制导控制部件中的阻尼回路,实现了运动偏移图像序列的稳姿稳像。

(2)根据本发明提供的图像/电视制导飞行器上稳姿稳像的目标识别系统,针对捷联图像制导过程中图像导引头进行目标识别较为困难的问题,在图像导引头上灌装有YOLO算法模型:相较于传统的目标识别和检测方法只适用于有明显抽象特征,背景简单的情形,无法应用在复杂的实际环境等问题,该 YOLO算法模型经过深度学习,以提取同一目标的丰富特征,使得算法泛化能力更强,更容易应用于实际场景,YOLO算法模型在具有较高检测精度的同时,还能够保证模型检测速度,满足了检测实时性的要求;

(3)根据本发明提供的图像/电视制导飞行器上稳姿稳像的目标识别系统,通过粒子滤波子模块获得目标与飞行器相对位置信息,相比于卡尔曼滤波器和H∞滤波器等,该粒子滤波子模块对系统要求达到相对最低,既不需要系统模型方程为线性, 也不需要系统噪声为高斯分布,具有更好的算法可扩展性和普适性。

附图说明

图1示出根据本发明一种优选实施方式的图像/电视制导飞行器上稳姿稳像的目标识别系统整体逻辑图;

图2示出本发明实施例中准确率的变化曲线图;

图3示出本发明实施例中召回率的变化曲线图;

图4示出本发明实施例中平均精度均值的变化曲线图;

图5a示出训练集边界框损失随训练轮次的变化情况;

图5b示出训练集目标损失随训练轮次的变化情况;

图5c示出验证集边界框损失随训练轮次的变化情况;

图5d示出验证集目标损失随训练轮次的变化情况;

图6a示出检测目标的准确率随训练轮次的变化情况;

图6b示出召回率随训练轮次的变化情况;

图6c示出map_0.5随训练轮次的变化情况;

图6d示出mAP_0.5:0.95随训练轮次的变化情况;

图7示出本发明实施例中目捕获结果的示意图;

图8示出本发明实施例中飞行器轨迹图;

图9示出本发明对比例1中俯仰角速率的变化曲线图;

图10示出本发明对比例1中过载指令的变化曲线图;

图11示出本发明对比例1中过载指令的变化曲线图;

图12示出本发明实施例2和对比例2中飞行器轨迹图。

1-图像处理模块

11-电视摄像头

12-电子稳像子模块

13-图像导引头

131-特征提取部

132-特征融合部

133-检测输出部

14-粒子滤波子模块

2-制导控制模块

21-惯导子模块

22-微处理器

23-舵机

具体实施方式

下面通过附图和实施例对本发明进一步详细说明。通过这些说明,本发明的特点和优点将变得更为清楚明确。

在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。

根据本发明提供的图像/电视制导飞行器上稳姿稳像的目标识别系统,如图1中所示,该系统包括:图像处理模块1和制导控制模块2,其中,所述图像处理模块1用于识别并锁定目标,实时获得目标与飞行器相对位置信息;所述制导控制模块2用于通过舵机调整飞行器的姿态,使得飞行器平稳地飞向目标,由于所述制导控制模块2能够使得飞行器飞行过程中更为平稳,进而确保图像处理模块1获得的目标位置保持稳定,即稳定输出图像序列,减少因抖动等因素导致的目标脱离视场域等意外情况的发生,确保飞行器平稳持续地飞临目标,并最终与目标碰撞。

本申请中,所述目标与飞行器相对位置信息包括飞行器相对目标的距离r、视线偏角θ和视线倾角φ。

在一个优选的实施方式中,所述图像处理模块1包括电视摄像头11、电子稳像子模块12、图像导引头13和粒子滤波子模块14;

所述电视摄像头11用于实时采集目标区域图像,本申请中所述的目标区域是指目标所在的大概区域,一般为以目标为中心,100米为半径的空间区域。所述电视摄像头在刚刚启动工作时,扫描所有可见区域并获得图像,将所述图像发送给图像导引头13进行运动补偿,在图像导引头13发现图像中的目标后,将采集命令反馈给所述电视摄像头11,所述电视摄像头后续持续采集目标区域图像。

所述电子稳像子模块12对电视摄像头11输入的图像信号做运动补偿,以稳定图像序列;本申请中的图像序列是指电视摄像头在目标区域内按帧采集的序列图片。其中,在所述电子稳像子模块12中,利用帧间图像内容的差异估计电视摄像头的运动矢量,从而进行运动补偿。所述运动补偿的具体操作过程可以参见王志民,徐晓刚.电子稳像技术综述[J].中国图象图形学报,2010,15(03):470-480。

所述图像导引头13采用YOLO算法模型对电视摄像头11获得的图像进行检测识别,从而锁定目标。其中,所述YOLO算法模型能够读取获得的每一帧图像,并且快速确定每帧图像中是否存在目标以及目标在图像中的位置。

在一个优选的实施方式中,所述YOLO算法模型包括特征提取部131、特征融合部132和检测输出部133,优选地,所述特征提取部为Backbone特征提取部,特征融合部为Neck特征融合部,检测输出部为Prediction检测输出部;

优选地,通过所述特征提取部131从图像中提取特征信息,

通过所述特征融合部132将提取获得的特征信息融合成三种尺度的特征图,

通过所述检测输出部133利用所述特征图对目标位置进行检测,获得目标位置信息。在本申请的YOLO算法模型中还设置有输入端;所述输入端通过Mosaic数据增强、自适应锚框计算、自适应图片缩放等操作对图像进行处理,从而增强检测效果,提高模型计算速度;本申请中的Backbone特征提取部采用 Focus结构对输入的图片进行切片操作,应用了CSP1_X网络结构,从输入图像中提取特征信息;Neck特征融合部采用FPN特征金字塔网络结合PAN结构将提取的特征信息进行融合:所述 FPN是自顶向下的,将高层的特征信息通过上采样的方式进行传递融合,在此基础上使用两个PAN结构进行下采样,形成自底向上的特征金字塔,从而生成三种尺度的特征图。本申请中, FPN层自顶向下传达强语义特征,特征金字塔则自底向上传达强定位特征,从不同的主干层对不同的检测层进行参数聚合,达到较好的特征融合的目的;Prediction检测输出部要进行目标检测的后处理,采用CIOU_Loss做Bounding box的损失函数,针对很多目标框的筛选,进行非极大抑制nms操作,最后输出多尺度特征图和置信度、损失值、准确率和召回率等检测结果的相关指标。

在一个优选的实施方式中,所述YOLO算法模型中的特征提取部131包括Focus结构,原始608*608*3的图像输入到Focus 结构,采用切片操作,先变成304*304*12的特征图,再经过一次32个卷积核的卷积操作,最终变成304*304*32的特征图;所述特征提取部131还包括四个CBL组件、三个CSP1_X结构和一个 SPP空间金字塔池化层,所述CBL组件由Conv+Bn+Leaky_relu 激活函数组成;

特征融合部132包括四个张量拼接层和两个上采样层;还包括四个CBL组件和五个CSP2_X结构层;

检测输出部133包括三个卷积层,三个卷几层分别用于输出76×76×255、38×38×255和19×19×255的多尺度特征图。

本申请中所述的CSP1_X结构和CSP2_X都是在主干网络中设计了CSP结构,CSP1_X由卷积层和X个Res unit(残差模块) Concate(张量拼接)组成;CSP2_X由卷积层和2X个Resunit 模块Concate(张量拼接)组成。具体可参考Wang C Y,Liao H,Wu Y H,et al.CSPNet:A New Backbone that can Enhance Learning Capability of CNN[C]//2020 IEEE/CVFConference on Computer Vision and Pattern Recognition Workshops(CVPRW).IEEE,2020。

在一个优选的实施方式中,所述YOLO算法模型在飞行器起飞前灌注在所述图像导引头中,该YOLO算法模型的训练过程包括如下步骤:

步骤a,获得数据样本,并对数据样本做预处理;具体来说,通过无人机搭载电视摄像头在现场采集含有标靶目标与背景的1000张256×256像素图片形成数据库,对数据库图片样本采用labelimg工具进行标注预处理,训练集,验证集,测试集划分比例为6:3:1。

步骤b,通过样本数据对YOLO算法模型进行训练;优选地,在深度学习框架PyTorch上搭载,在集成开发环境PyCharm中运行。具体来说,首先要配置参数,训练批次batch size设置为8,维度越大,模型学习率越高,但显存的占用量也越大,要求设备的性能也越高。因此在硬件条件允许的情况下,尽可能调大batch size。本申请中所述的训练批次是指每8个数据为一组,每次网络训练的图片数目为8。

训练轮次为100epoch,所述训练轮次是指训练迭代次数。

训练时,遍历数据集中的每张图片。训练集每完成一轮,在命令行中输出轮次、显存占用量、损失函数数值等信息。

在训练过程中,损失函数为

训练集训练完成后,验证集验证,输出精确度、召回率、 mAP和mAP@0.5等训练模型的指标结果。

其中,YOLO算法模型的评价指标采用准确率、召回率和平均精度均值来衡量,其中所述准确率通过下式获得:

所述召回率通过下式获得:

其中,Precision表示准确率;表示在检测出为标靶目标的样本中包含的真正的标靶目标的比例,反映了检测结果的准确性;

Recall表示召回率;表示在全部的标靶目标图像样本中,被正确检测出的标靶目标所占的比例,反映了检测出的标靶目标是否齐全的问题;

TP表示目标为真实目标,检测结果也为真实目标的验证样本数量;

FP表示目标不是真实目标,检测结果为真实目标的验证样本数量;

FN表示目标为真实目标,检测结果为不是真实目标的验证样本数量;

精度均值AP为以准确率Precision和召回率Recall所围成的曲线面积值;P-R曲线是以准确率Precision作为横坐标,召回率 Recall作为纵坐标得到的二维曲线。准确率Precision与召回率Recall二者存在制约关系,可以通过改变检测的阈值调整准确率与召回率的取值,阈值的变化会获得Precision、Recall 的不同组合,从而绘制出P-R曲线。P-R曲线反映的是不同召回率与对应召回率下最大准确率间的关系变化情况。

平均精度均值mAP为学习的标靶目标这一类别精度均值 AP的平均值。

mAP@0.5表示将交并比IOU设为0.5时,计算每一类的所有图像数据集的AP,再求取所有的AP的平均值。

步骤3,当训练完设定的100个epoch后,训练结束,获得模型的训练结果。此时获得的YOLO算法模型即可灌装到所述图像导引头13中。

在一个优选的实施方式中,所述粒子滤波子模块14用于根据图像导引头13给出的目标在图像中的位置信息,获得飞行器相对目标的距离r、视线偏角θ和视线倾角φ。

本申请中所述的粒子滤波(Particle Filter,PF)是一种基于蒙特卡洛仿真的贝叶斯滤波算法,通过计算粒子集合的样本均值来估计被辨识的参数,对任意时刻的状态空间采用粒子采样模拟的近似估计方法。

本申请中具体获得飞行器相对目标的距离r、视线偏角θ和视线倾角φ的过程包括如下步骤:

(1)输入k

(2)确定目标状态转移函数和观测模型、初始化粒子群;

(3)重采样,通过下式获得粒子有效性采样系数N

(4)设置有效性采样阈值N

(5)从提议分布函数中采用重要性采样近似后验概率密度分布,递推计算k时刻的粒子权重;

(6)归一化粒子权重;

(7)得到当前时刻k目标状态的后验概率分布近似估计:

式中

在一个优选的实施方式中,所述制导控制模块2包括惯导子模块21、微处理器22和舵机23;

其中,通过所述惯导子模块21实时获得飞行器的姿态信息,所述惯导子模块21至少包括两个MEMS陀螺仪,分别测量飞行器的俯仰角

通过微处理器22基于目标与飞行器相对位置信息和飞行器的姿态信息实时获得需用过载,并进一步获得舵指令;所述舵指令即为舵机的打舵角度和打舵时间。

通过所述舵机23根据所述舵指令打舵执行。优选地,在所述舵机中还设置有放大变换器,通过该放大变换器将微处理器输出的舵指令信号放大,转化成舵机所需的信号形式。所述舵机可以选用冷气式舵机,利用高压冷气瓶中储存的高压空气或氦气作为气源,操纵舵面运动。

在一个优选的实施方式中,在所述制导控制模块2中还设置有阻尼回路,通过所述阻尼回路提高飞行器的稳定性。

优选地,所述阻尼回路实时根据期望阻尼μ

所述微处理器22获得的需用过载与所述角速率反馈

在所述无人机中,所述微处理器22可以通过比例导引等制导率来生成需用过载,如

优选地,所述增益K

其中,μ

T

μ

T

k

A表示中间变量,通过下式获得:

A=μ

本申请还提供一种图像/电视制导飞行器上稳姿稳像的目标识别方法,方法包括如下步骤:

步骤1,通过电视摄像头11实时采集目标区域图像;

步骤2,通过电子稳像子模块12对电视摄像头11输入的图像信号进行运动补偿,以稳定图像序列;其中,利用帧间图像内容的差异估计电视摄像头的运动矢量,从而进行运动补偿;

步骤3,通过采用YOLO算法模型对所述图像进行检测识别,从而锁定目标;

步骤4,通过粒子滤波子模块14获得飞行器相对目标的距离r、视线偏角θ和视线倾角φ。

步骤5,通过所述惯导子模块21实施获得飞行器的姿态信息,

步骤6,通过微处理器22实时获得需用过载,

优选地,所述微处理器中通过下式获得需用过载:

其中,在步骤6中,所述微处理器22在获得需用过载后,将所述需要过载与通过阻尼回路获得的增益K

进一步优选地,在飞行器上还设置有阻尼回路,所述阻尼回路通过下式实时获得增益K

其中,μ

T

μ

T

k

A表示中间变量,通过下式获得:

A=μ

所述阻尼回路实时获得的增益K

步骤7,通过舵机23基于所述修正需用过载来生成舵指令,通过舵指令控制舵机打舵,调整飞行器的飞行姿态,飞向目标。

实施例1:

在深度学习框架PyTorch上搭载训练YOLO算法模型:

所述YOLO算法模型包括Backbone特征提取部、Neck特征融合部、Prediction检测输出部;

Backbone特征提取部包括Focus结构,在Focus结构中,先采用切片操作将原始608*608*3的图像变成304*304*12的特征图,再经过一次32个卷积核的卷积操作,最终变成304*304*32 的特征图;所述Backbone特征提取部还包括四个CBL组件、三个CSP1_X结构和一个SPP空间金字塔池化层;

Neck特征融合部包括四个张量拼接层和两个上采样层;还包括四个CBL组件和五个CSP2_X结构层;

Prediction检测输出部包括三个卷积层,三个卷几层分别用于输出76×76×255、38×38×255和19×19×255的多尺度特征图。

具体训练过程为:

步骤a,通过无人机搭载电视摄像头在现场采集含有标靶目标与背景的1000张256×256像素图片形成数据库,对数据库图片样本采用labelimg工具进行标注预处理,训练集,验证集,测试集划分比例为6:3:1;

步骤b,通过样本数据对YOLO算法模型进行训练,训练批次设置为8;训练轮次为100epoch;

训练100轮次后,统计获得训练获得的模型准确率、召回率和平均精度均值如下图2、图3和图4中所示;

YOLO算法模型在准确率和召回率这两方面的性能中,都是越大越好,极端点就是(1,1),通过图2和图3可知,曲线整体趋向于(1.1),能够表征该模型整体性能良好;图4的曲线表明模型的整体性能很好。

在训练过程中,损失函数为

训练集和验证集中的目标与预测框损失函数,在训练过程中随着训练轮次迭代的增加逐渐降低,并最终趋于0,图5a中示出了训练集边界框损失随训练轮次的变化情况,图5b中示出了训练集目标损失随训练轮次的变化情况,图5c中示出了验证集边界框损失随训练轮次的变化情况,图5d中示出了验证集目标损失随训练轮次的变化情况其中,在25轮次以后,损失函数降低到0.02以下,能够说明该模型收局部快速收敛性,随着训练轮次的增加,损失越来越小,最后趋近于0。同时,图6a示出检测目标的准确率趋近于1,图6b示出召回率趋近于1,图6c 示出map_0.5趋近于1,图6d示出mAP_0.5:0.95随着训练轮次增加,逐渐趋近于1;由目标检测准确率和召回率决定的平均精度均值也趋于稳定,说明了该模型的准确性。mAP_0.5:mean Average Precision(IoU=0.5),即将IoU设为0.5时,计算每一类的所有图片的AP,然后所有类别求平均;mAP_0.5:0.95:表示在不同IoU阈值即0.5、0.55、0.6、0.65、0.7、0.75、0.8、 0.85、0.9、0.95时的mAP。

所述YOLO算法模型训练完成后,向其中输入包含目标位置的图像,该模型能够准确捕获图像中的目标,捕获结果如图7 中所示,根据该结果可知,所述训练后的YOLO算法模型具备良好的目标捕获能力。

实施例2

将实施例1中训练得到的YOLO算法模型灌装到图像导引头中,再将该图像导引头搭载在飞行器上,所述飞行器上还设置有电视摄像头、电子稳像子模块、粒子滤波子模块、惯导子模块、微处理器和舵机;

在所述飞行器发射起飞后通过下述方法进行目标的识别与飞行器控制:

步骤1,通过电视摄像头实时采集目标区域图像;

步骤2,通过电子稳像子模块对电视摄像头输入的图像信号进行运动补偿,以稳定图像序列,其中,利用帧间图像内容的差异估计电视摄像头的运动矢量,从而进行运动补偿;

步骤3,通过图像导引头中的YOLO算法模型识别图像中的目标位置;

步骤4,通过粒子滤波子模块获得目标与飞行器相对位置信息;

步骤5,通过惯导子模块实时获得飞行器的姿态信息;

步骤6,通过微处理器基于目标与飞行器相对位置信息和飞行器的姿态信息实时获得需用过载,所述微处理器中通过下式获得需用过载:

其中,在飞行器上还设置有阻尼回路,所述阻尼回路通过下式实时获得增益K

其中,μ

T

μ

T

k

A表示中间变量,通过下式获得:

A=μ

所述阻尼回路实时获得的增益K

步骤7,通过舵机基于该修正需用过载来生成舵指令,通过舵指令控制舵机打舵,调整飞行器的飞行姿态,飞向目标。

该飞行器实时获得的目标位置信息和飞行轨迹如图8和图 12中所示,最终准确地命中目标,其中实线表示飞行器的飞行轨迹,虚线表示目标的运动轨迹。该飞行器的俯仰角速率的变化情况如图9中所示,过载指令的变化情况如图10中所示,视场角速率的变化情况如图11中所示。

对比例1

选择与实施例2中基本相同的飞行器,区别在于该飞行器上不设置阻尼回路,在所述飞行器发射起飞后通过下述方法进行目标的识别与飞行器控制:

步骤1,通过电视摄像头实时采集目标区域图像;

步骤2,通过电子稳像子模块对电视摄像头输入的图像信号进行运动补偿,以稳定图像序列,其中,利用帧间图像内容的差异估计电视摄像头的运动矢量,从而进行运动补偿;

步骤3,通过图像导引头中的YOLO算法模型识别图像中的目标位置;该YOLO算法模型识是实施例1中训练得到的;

步骤4,通过粒子滤波子模块获得目标与飞行器相对位置信息;

步骤5,通过惯导子模块实时获得飞行器的姿态信息;

步骤6,通过微处理器基于目标与飞行器相对位置信息和飞行器的姿态信息实时获得需用过载,所述微处理器中通过下式获得需用过载:

步骤7,通过舵机基于该需用过载来生成舵指令,通过舵指令控制舵机打舵,调整飞行器的飞行姿态,飞向目标;

不设置阻尼回路的俯仰角速率和设置阻尼回路的俯仰角速率如图9中所示,不设置阻尼回路的过载指令和设置阻尼回路的过载指令如图10中所示,不设置阻尼回路的视场角速率和设置阻尼回路的视场角速率如图11中所示,通过图9图10和图 11能够看出,阻尼回路能够显著提升飞行器的稳定性,能够稳定飞行姿态;

通过实施例2和对比例1可知,搭载有阻尼回路的飞行器,其获得的目标位置信息是平滑连续的,阻尼回路能够使得姿态角和视场角波动变小,弹体稳定性更好,进而目标图像信息获得的准确性提高,最终提高飞行器的命中精度。

对比例2

选择与实施例2中基本相同的飞行器,区别在于该飞行器上的图像导引头不设置深度学习YOLO算法模型,采用模板匹配方法的图像导引头;在所述飞行器发射起飞后通过下述方法进行目标的识别与飞行器控制:

步骤1,通过电视摄像头实时采集目标区域图像;

步骤2,通过电子稳像子模块对电视摄像头输入的图像信号进行运动补偿,以稳定图像序列,其中,利用帧间图像内容的差异估计电视摄像头的运动矢量,从而进行运动补偿;

步骤3,通过采用模板匹配方法的图像导引头识别图像中的目标位置;

步骤4,通过粒子滤波子模块获得目标与飞行器相对位置信息;

步骤5,通过惯导子模块实时获得飞行器的姿态信息;

步骤6,通过微处理器基于目标与飞行器相对位置信息和飞行器的姿态信息实时获得需用过载,所述微处理器中通过下式获得需用过载:

其中,在飞行器上还设置有阻尼回路,所述阻尼回路通过下式实时获得增益K

其中,μ

T

μ

T

k

A表示中间变量,通过下式获得:

A=μ

所述阻尼回路实时获得的增益K

步骤7,通过舵机基于该修正需用过载来生成舵指令,通过舵指令控制舵机打舵,调整飞行器的飞行姿态,飞向目标。

对比例2获得的飞行器轨迹如图12中所示,其中,对比例2 的模板匹配图像导引头对应的飞行器轨迹为蓝色轨迹,实施例 2中的飞行器轨迹为红色轨迹,可知红色轨迹最终命中目标,蓝色轨迹脱靶;

通过实验例2和对比例2相比,能够说明采用传统模板匹配方法进行目标检测,检测过程较为复杂,算法计算时间较长,方法局限性较大,不满足导引头识别目标的快速性,最终导致飞行器脱靶,不能对目标进行精确拦截;深度学习YOLO算法由卷积神经网络搭建,检测精度高,检测速度快,满足图像导引头实时准确识别目标的要求,最终能够使得飞行器命中目标。

以上结合了优选的实施方式对本发明进行了说明,不过这些实施方式仅是范例性的,仅起到说明性的作用。在此基础上,可以对本发明进行多种替换和改进,这些均落入本发明的保护范围内。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号