首页> 中文学位 >DOA估计中阵列幅相误差校正算法研究
【6h】

DOA估计中阵列幅相误差校正算法研究

代理获取

目录

封面

中文摘要

英文摘要

目录

第1章 绪 论

1.1 课题背景及意义

1.2 阵列误差校正技术的发展及研究现状

1.3 本文的主要研究内容

第2章 阵列幅相误差对DOA估计性能的影响概述

2.1 空间谱估计基础

2.1.1 空间谱估计的数学模型

2.1.2 阵列模型的二阶统计特性

2.1.3 经典MUSIC算法

2.2 阵列幅相误差模型及分析

2.2.1 阵列幅相误差模型

2.2.2 幅相误差对DOA估计算法性能的影响

2.2.3 仿真实验

2.3 本章小结

第3章 基于辅助信息的阵列幅相误差校正算法研究

3.1 有源校正算法

3.1.1 基于接收信号的单辅助信源校正算法

3.1.2 仿真实验

3.2 ISM类校正算法

3.2.1 ISM算法

3.2.2 基于协方差矩阵的ISM校正算法

3.2.3 仿真实验

3.4本章小结

第4章 阵列幅相误差自校正算法研究

4.1 基于协方差矩阵的自校正算法

4.1.1 仿真实验

4.2 经典自校正类算法

4.2.1 阵列误差的自校正算法

4.2.2 经典自校正的改进算法

4.2.3 仿真实验

4.3 基于最大似然准则的牛顿迭代自校正算法研究

4.3.1 最大似然准则

4.3.2 N-ML自校正算法

4.3.3 仿真实验

4.4 信号源相干时的N-ML自校正算法

4.4.1 相干信号源数学模型

4.4.2 仿真实验

4.5 本章小结

结论

参考文献

声明

致谢

展开▼

摘要

高分辨波达方向(DOA)估计算法是阵列信号处理中主要研究方向之一,其应用涉及雷达、声呐、地震、移动通信等众多领域。为了保证高精度的参数估计,DOA估计算法通常要求阵列流型精确已知。在实际工程应用中,由于各种误差(阵元幅相误差、阵元互耦误差、阵元位置误差等)的存在,导致实际的阵列流型与理论值不符,使得现有的DOA估计算法性能明显下降,甚至失效。因此,阵列误差的普遍存在一直是阻碍高分辨空间谱估计技术从理论走向工程应用的一个瓶颈。本文针对阵列幅相误差的校正算法展开研究,主要研究内容如下:
  首先,在高分辨MUSIC测向算法的基础上建立了阵列幅相误差数学模型,通过仿真实验分析了幅相误差对DOA估计性能的影响。
  其次,针对有源校正算法,采用了基于接收数据矢量的单辅助信源校正算法,算法与多辅助信源算法相比,工程上更容易实现,且能较为准确的估计出幅相误差参数;研究了接收数据二阶协方差矩阵的性质,在此基础上得到了基于协方差矩阵的ISM(R-ISM)校正算法,算法只需要两个辅助阵元,可在多信源情况下进行幅相误差估计,解决了经典ISM算法要求辅助阵元个数大于信源个数的问题,且有良好的估计性能;针对经典自校正算法,从迭代门限值和迭代初始值两方面对其估计性能进行了分析,并研究了基于初值预处理的经典自校正改进算法。
  最后,在最大似然准则自校正算法的基础上,研究了基于最大似然准则的牛顿迭代自校正算法(N-ML),算法首先利用最大似然准则的代价函数,推导了代价函数关于幅度误差及相位误差的一阶导数和海赛(Hessian matrix)矩阵,然后利用牛顿迭代估计出阵列幅相误差和DOA参数。仿真实验表明,N-ML算法在计算复杂度和估计精度方面均优于最大似然准则自校正算法;同时在信源相干的条件下,N-ML算法也取得了良好的参数估计效果。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号