首页> 中国专利> 基于图注意力网络和迁移学习的PD雷达目标检测方法

基于图注意力网络和迁移学习的PD雷达目标检测方法

摘要

本发明公开了一种基于图注意力网络和迁移学习的PD雷达目标检测方法,属于雷达信号检测技术领域,包括步骤:对PD雷达获取的多帧回波数据进行图节点划分,根据图节点间时空关系构建由结构化数据向图数据的映射,基于图注意力网络实现对回波数据时空信息的联合利用和目标检测,通过迁移学习提升网络模型的时间适应性,从而有效提高雷达在强杂波环境下的目标检测能力。

著录项

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2022-10-14

    授权

    发明专利权授予

说明书

技术领域

本发明涉及雷达信号检测技术领域,更为具体的,涉及一种基于图注意力网络和迁移学习的PD雷达目标检测方法。

背景技术

对目标检测是雷达系统的重要功能之一,广泛应用于预警、搜索和武器火控等军民用领域。杂波背景下的运动目标检测一直是雷达目标检测中的热点和难点问题。PD雷达是一种为应对机载雷达下视时强杂波对目标检测的影响,而发展起来的雷达工作体制,它通过精确的杂波和目标回波统计建模,利用相干脉冲串进行相参积累,在多普勒频域处理实现杂波与目标的分离。随着雷达精细化探测能力越来越强,对复杂杂波和目标回波进行精确建模越发困难,传统基于相参处理的目标检测类方法性能损失明显。

近年来,深度学习方法作为一种全新的技术途径,在雷达目标检测中得到了越来越多的关注。卷积神经网络、循环神经网络可对雷达时频图、雷达一维时间序列等结构化数据样式自动进行高维特征提取,并通过二元分类方法实现目标和杂波信号的辨识。然而,这类方法仅能以PD雷达单帧回波为处理对象,难以有效利用多帧回波和不同距离单元间蕴含的时空信息,因此其检测性能有进一步提升的空间。

发明内容

本发明的目的在于克服现有技术的不足,提供一种基于图注意力网络和迁移学习的PD雷达目标检测方法,以提高雷达在强杂波环境下的目标检测能力。

本发明的目的是通过以下方案实现的:

一种基于图注意力网络和迁移学习的PD雷达目标检测方法,包括步骤:对PD雷达获取的多帧回波数据进行划分,构建由结构化数据向图数据的映射,基于图注意力网络实现对回波数据时空信息的联合利用,通过迁移学习提升网络模型的时间适应性,从而有效提高雷达的目标检测能力。

进一步地,包括子步骤:

S1,利用当前接收帧回波数据和前N帧有标签信息的回波数据进行图节点划分,每个图节点对应一帧数据中一个距离单元的回波时间序列数据,N为正整数;

S2,对每个图节点对应的回波时间序列数据进行时频变换,利用同一帧所有距离单元回波时间序列数据时频图求取各时频点均值和标准差,进行时频图归一化;

S3,构建图节点邻接矩阵,得到由邻接矩阵和各节点特征向量集构成的信号图数据;

S4,将所述信号图数据划分为训练集、验证集和测试集,所述训练集和验证集分别 由前

S5,搭建雷达目标检测图神经网络模型,利用训练集对应图节点的归一化时频图 特征作为输入,对雷达目标检测图神经网络进行训练,利用验证集判断训练结束条件并确 定网络参数更新时间为

S6,将当前帧图数据输入训练好的雷达目标检测图神经网络,输出对应节点为目标或杂波二分类结果;

S7,接收下一帧回波数据,根据网络参数更新时间选择处理方式。

进一步地,在步骤S1中,包括子步骤:

根据雷达距离波门宽度和采样率,将雷达回波数据划分为M个距离单元;每个雷达 距离单元对应的脉冲序列采样点数为一帧回波的脉冲数L;将各帧中每一个距离单元划分 为一个图节点,图节点数为

进一步地,在步骤S2中,包括子步骤:

S21,利用时频变换计算每一帧数据中各距离单元回波时间序列时频图;

S22,利用每一帧所有距离单元时频图计算该帧各时频点均值和标准差;

S23,基于所述均值和标准差对每一帧各距离单元时频图进行归一化处理。

进一步地,在步骤S3中,包括子步骤:

S31,根据图节点对应各距离单元间的时间、距离邻近关系,确定邻接矩阵中图节点间的关联:

其中,

S32,根据所有节点间的连接关系构建所述邻接矩阵;

S33,根据所述邻接矩阵和节点特征向量集,得到所述信号图数据。

进一步地,在步骤S5中,包括子步骤:

S51,搭建雷达目标检测图神经网络,所述雷达目标检测图神经网络包括特征提取子网络和信号分类子网络;

所述特征提取子网络包括三个卷积层和两个池化层,网络输入为图节点归一化时频图特征,输出为图节点高层语义特征;

所述信号分类子网络包含三个图卷积层和一个LSTM聚合层,网络输入为图节点高层语义特征;各图卷积层均采用注意力机制,其中第一图卷积层和第二图卷积层采用多头注意力机制;

所述第一图卷积层和第二图卷积层输出通过跨越连接方式与第三图卷积层输出后,共同输入LSTM聚合层得到图节点二分类结果;

S52,输入训练集对应图节点的归一化时频图特征对模型进行迭代优化训练,根据验证集在模型上的表现判断训练结束条件,得到网络模型参数和网络更新时间。

进一步地,在步骤S7中,包括子步骤:

若未到网络参数更新时间,将下一帧图数据直接输入训练好的雷达目标检测图神经网络,输出对应节点为目标或杂波二分类结果;

若达到网络参数更新时间,对最近

迁移学习完成后,将下一帧图数据输入网络,得到对应节点为目标或杂波二分类结果。

进一步地,在步骤S52中,所述对模型进行迭代优化训练包括利用反向传播算法和损失函数对模型进行迭代优化训练。

进一步地,所述人工抽检,其中目标样本抽检50%,杂波样本抽检10%。

本发明的有益效果包括:

本发明通过对PD雷达获取的多帧回波数据进行合理图节点划分,构建由结构化数据向图数据的映射,基于图注意力网络实现对回波数据时空信息的联合利用和目标检测,通过迁移学习提升网络模型的时间适应性,从而有效提高雷达在强杂波环境下的目标检测能力。

本发明提出一种基于图注意力网络和迁移学习的PD雷达目标检测方法。相比于传统深度神经网络方法,图神经网络可以对雷达获取的多帧回波数据进行联合处理。在网络的训练过程中,每个节点可传播自身信息并综合邻居节点的信息,从而更好地学习各节点间的时空信息,提高模型的泛化能力。通过引入多头注意力机制,可以自适应地提取邻居节点间的多种相关特征,增强网络的学习能力。同时,基于迁移学习的小样本训练可以较高的效率进行网络参数更新,以适应随时间变化的目标和杂波。本发明方法可提高强杂波环境下脉冲多普勒雷达目标检测能力。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1为本发明基于图注意力网络和迁移学习的PD雷达目标检测方法流程图;

图2为本发明构建的信号图数据示意图;

图3为本发明构建的雷达目标检测图神经网络示意图。

具体实施方式

本说明书中所有实施例公开的所有特征,或隐含公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合和/或扩展、替换。以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。

根据本发明实施例,参见图1,提供一种基于图注意力网络和迁移学习的PD雷达目标检测方法,包括以下步骤:

(1)、利用当前接收帧回波数据和前N帧有标签信息的回波数据进行图节点划分, 每个图节点对应一帧数据中一个距离单元的回波时间序列数据。结合图2,具体的,根据雷 达距离波门宽度和采样率,将雷达回波数据划分为M个距离单元;每个雷达距离单元对应的 脉冲序列采样点数为一帧回波的脉冲数L;将各帧中每一个距离单元划分为一个图节点,图 节点总数为

(2)、对每个图节点对应的回波时间序列数据进行时频变换,利用同一帧所有距离单元回波时间序列数据时频图求取各时频点均值和标准差,进行时频图归一化。具体的,首先利用WVD变换求取每个图节点对应的回波脉冲序列数据的时频图:

其中

然后利用同一帧所有距离单元回波时间序列数据时频图求取各时频点均值和标准差:

其中

最后,利用

(3)、构建图节点邻接矩阵,得到由邻接矩阵和各节点特征向量集构成的信号图数据。具体的,根据图节点对应各距离单元间的时间、距离邻近关系,确定邻接矩阵中图节点间的关联:

其中,

(4)、将所述信号图数据划分为训练集、验证集和测试集,所述训练集和验证集分 别由前

(5)、搭建雷达目标检测图神经网络模型,利用训练集对应图节点的归一化时频图 特征作为输入,对雷达目标检测图神经网络进行训练,利用验证集判断训练结束条件并确 定网络参数更新时间为

特征提取子网络输入为图节点归一化时频图特征,输出为图节点高层语义特征, 网络模型包括三个卷积层和两个池化层。前两个卷积层后紧跟两个最大池化层。前两个卷 积层卷积核大小为(3,3),全零填充,第三个卷积层卷积核大小为(4,2),未进行全零填充, 三个卷积层深度分别为16,32,64。池化层尺寸为2,步长为2。因此,输入归一化时频图特征 经过网络变换后,输出为

信号分类子网络包含三个图卷积层和一个LSTM聚合层,网络输入为图节点高层语义特征。所述各图卷积层均采用注意力机制,其中第一图卷积层和第二图卷积层采用多头注意力机制。第一图卷积层、第二图卷积层和第三图卷积层的运算为:

其中,K为注意力多头数,对第一和第二图卷积层K=8,对第三图卷积层K=1,

其中

利用构建好的训练集对所述雷达目标检测图神经网络模型进行训练,输入训练集对应图节点的归一化时频图特征,利用反向传播算法和损失函数对模型进行迭代优化训练,根据验证集在模型上的表现判断训练结束条件,得到网络模型参数和网络更新时间。

(6)、将当前帧图数据输入训练好的雷达目标检测图神经网络,输出对应节点为目标或杂波二分类结果;

(7)、接收下一帧回波数据,根据网络参数更新时间选择处理方式:若未到网络参 数更新时间,将下一帧图数据直接输入训练好的雷达目标检测图神经网络,输出对应节点 为目标或杂波二分类结果;若达到网络参数更新时间,对最近

实施例1

一种基于图注意力网络和迁移学习的PD雷达目标检测方法,包括步骤:对PD雷达获取的多帧回波数据进行图节点划分,根据图节点间时空关系构建由结构化数据向图数据的映射,基于图注意力网络实现对回波数据时空信息的联合利用和目标检测,通过迁移学习提升网络模型的时间适应性。

实施例2

在实施例1的基础上,包括子步骤:

S1,利用当前接收帧回波数据和前N帧有标签信息的回波数据进行图节点划分,每个图节点对应一帧数据中一个距离单元的回波时间序列数据,N为正整数;

S2,对每个图节点对应的回波时间序列数据进行时频变换,利用同一帧所有距离单元回波时间序列数据时频图求取各时频点均值和标准差,进行时频图归一化;

S3,构建图节点邻接矩阵,得到由邻接矩阵和各节点特征向量集构成的信号图数据;

S4,将所述信号图数据划分为训练集、验证集和测试集,所述训练集和验证集分别 由前

S5,搭建雷达目标检测图神经网络模型,利用训练集对应图节点的归一化时频图 特征作为输入,对雷达目标检测图神经网络进行训练,利用验证集判断训练结束条件并确 定网络参数更新时间为

S6,将当前帧图数据输入训练好的雷达目标检测图神经网络,输出对应节点为目标或杂波二分类结果;

S7,接收下一帧回波数据,根据网络参数更新时间选择处理方式。

实施例3

在实施例2的基础上,在步骤S1中,包括子步骤:

根据雷达距离波门宽度和采样率,将雷达回波数据划分为M个距离单元;每个雷达 距离单元对应的脉冲序列采样点数为一帧回波的脉冲数L;将各帧中每一个距离单元划分 为一个图节点,图节点数为

实施例4

在实施例2的基础上,在步骤S2中,包括子步骤:

S21,利用时频变换计算每一帧数据中各距离单元回波时间序列时频图;

S22,利用每一帧所有距离单元时频图计算该帧各时频点均值和标准差;

S23,基于所述均值和标准差对每一帧各距离单元时频图进行归一化处理。

实施例5

在实施例2的基础上,在步骤S3中,包括子步骤:

S31,根据图节点对应各距离单元间的时间、距离邻近关系,确定邻接矩阵中图节点间的关联:

其中,

S32,根据所有节点间的连接关系构建所述邻接矩阵;

S33,根据所述邻接矩阵和节点特征向量集,得到所述信号图数据。

实施例6

在实施例2的基础上,在步骤S5中,包括子步骤:

S51,搭建雷达目标检测图神经网络,所述雷达目标检测图神经网络包括特征提取子网络和信号分类子网络;

所述特征提取子网络包括三个卷积层和两个池化层,网络输入为图节点归一化时频图特征,输出为图节点高层语义特征;

所述信号分类子网络包含三个图卷积层和一个LSTM聚合层,网络输入为图节点高层语义特征;各图卷积层均采用注意力机制,其中第一图卷积层和第二图卷积层采用多头注意力机制;

所述第一图卷积层和第二图卷积层输出通过跨越连接方式与第三图卷积层输出后,共同输入LSTM聚合层得到图节点二分类结果;

S52,输入训练集对应图节点的归一化时频图特征对模型进行迭代优化训练,根据验证集在模型上的表现判断训练结束条件,得到网络模型参数和网络更新时间。

实施例7

在实施例2的基础上,在步骤S7中,包括子步骤:

若未到网络参数更新时间,将下一帧图数据直接输入训练好的雷达目标检测图神经网络,输出对应节点为目标或杂波二分类结果;

若达到网络参数更新时间,对最近

迁移学习完成后,将下一帧图数据输入网络,得到对应节点为目标或杂波二分类结果。

实施例8

在实施例6的基础上,在步骤S52中,所述对模型进行迭代优化训练包括利用反向传播算法和损失函数对模型进行迭代优化训练。

实施例9

在实施例7的基础上,所述人工抽检,其中目标样本抽检50%,杂波样本抽检10%。

除以上实例以外,本领域技术人员根据上述公开内容获得启示或利用相关领域的知识或技术进行改动获得其他实施例,各个实施例的特征可以互换或替换,本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号