您现在的位置: 首页> 研究主题> 时延估计

时延估计

时延估计的相关文献在1989年到2022年内共计1148篇,主要集中在无线电电子学、电信技术、自动化技术、计算机技术、一般工业技术 等领域,其中期刊论文781篇、会议论文94篇、专利文献80012篇;相关期刊293种,包括声学与电子工程、探测与控制学报、电声技术等; 相关会议76种,包括中国声学学会第十一届青年学术会议、中国声学学会水声学分会2015年学术会议、第八届卫星通信学术年会等;时延估计的相关文献由2487位作者贡献,包括邱天爽、文玉梅、王江等。

时延估计—发文量

期刊论文>

论文:781 占比:0.97%

会议论文>

论文:94 占比:0.12%

专利文献>

论文:80012 占比:98.92%

总计:80887篇

时延估计—发文趋势图

时延估计

-研究学者

  • 邱天爽
  • 文玉梅
  • 王江
  • 赵俊渭
  • 李平
  • 王尧尧
  • 冯海泓
  • 巴斌
  • 陈华伟
  • 陈柏
  • 期刊论文
  • 会议论文
  • 专利文献

搜索

排序:

年份

作者

    • 唐俊; 汪照; 白宇田
    • 摘要: 基于时延估计的TDOA方法广泛地应用于声学定位技术中,应用时引入的干扰会导致一定程度的幅值失真,从而影响时延估计的准确与稳定性.文中分析了不同干扰因素带来的影响,进而针对幅值失真问题,提出了一种新的基于信号过零点信息进行时延估计方法.该方法对需要进行时延估计的两路信号进行幅值归一化处理,得到仅含0、1两种特征值的稀疏化信号,在一定范围内将稀疏化信号错位相减得到误差系数函数,通过索引误差系数函数的最小值求得通道时延估计值.为了验证该方法的有效性,分别进行了数值模拟、耦合腔实验与室内混响定位实验,实验中采用广义互相关(GCC)时延估计方法作为对比,结果表明:对于模拟信号和耦合腔标准声源生成信号,该方法均有较好的抗干扰能力,在信噪比为-5 dB时依然可以准确进行时延估计计算;与GCC方法相比,可用于极端条件如信号削波时的时延估计;在低采样率实验中,该方法较GCC方法受采样率降低影响小,在低采样率的条件下依然保留一定时延估计能力;在室内混响条件下的近距离声源定位实验中,该方法受声源距离、混响影响小,并且较GCC方法具备更强的抗突发干扰能力.文中所提出的方法能很好地抑制信号削波、低采样率、混响干扰等因素导致的幅值失真带来的影响,提升复杂环境下时延估计的精度与稳定性,面对突发干扰也表现出了更好的抗干扰能力.同时该方法设计简单、计算量较小,可满足对数据实时处理的需求.
    • 穆中林; 王桥桥; 周丽丽; 胡欣悦; 何立风
    • 摘要: 低频天波传播时延的准确预测对其在远程导航授时中的应用潜力挖掘具有重要意义.为了获得地-电离层波导中低频多跳天波模式的传播时延特性,同时验证典型多径时延估计算法在不同信道环境下的作用性能,文中首先采用时域有限差分(finite-difference time-domain,FDTD)电磁计算方法对不同电离层反射情况下的距发射台400 km处地面接收的低频天地波耦合总场进行正演预测,然后分别基于快速傅里叶变换(fast Fourier transform,FFT)/快速傅里叶逆变换(inverse fast Fourier transform,IFFT)频谱相除、多重信号分类(multiple signal classification,MUSIC)和旋转不变技术信号参数估计(estimating signal parameters via rotational invariance techniques,ESPRIT)三种算法对电磁场数值预测结果进行后处理,解耦得到不同模式(地波、一跳天波、二跳天波、三跳天波及四跳天波)的时延,并在此基础上分析比较了无噪声和信噪比(signal-noise ratio,SNR)为0 dB、-5 dB以及-10 dB情况下三种算法对多跳天波的时延估计结果.结果表明,波跳次数越高,算法的检测能力越差.对于文中所模拟的信道条件,在弱噪声(SNR=0 dB)、电离层强反射时,FFT/IFFT算法结果精度最高,时延误差不超过400 ns;而在强噪声(SNR=-10 dB)、电离层弱反射时,ESPRIT算法稳定性最好,误差范围在5μs以内.
    • 王雪峰; 张自豪; 陈兴稣; 王元庆
    • 摘要: 非视域成像技术是对无法直接观测到的物体进行间接观测的一种技术,本文使用激光光源照射中间介质,光经过中间介质进行多次反射,再使用APD(Avalanche Photon Diode)阵列接收回波信号,最后使用二次相关法进行时间延迟估计,计算回波信号的返回时间,完成对非视域物体的定位。实验表明,该方法可以快速定位非视域物体的位置,在噪声比较大的环境下,比直接使用互相关法定位更加准确。
    • 曾瑞文
    • 摘要: 随着人类对自然环境的过度开发,生物多样性水平迅速下降,鸟类作为环境指示生物,对其进行声学监测成为评估生物多样性的重要方法之一。本文针对生态监测数据中存在干扰的问题,选取在鄱阳湖湿地采集的含有机械噪声的鸟声监测数据进行研究分析。利用时延估计机械噪声的方向,通过块自适应算法更新权矢量,并基于块自适应滤波实现干扰抑制。实验结果表明,基于麦克风阵列可有效地抑制声学监测数据中的机械噪声。
    • 王尧尧; 刘卢芳; 鞠锋; 陈柏; 吴洪涛
    • 摘要: 为满足不断增长的空中作业需求,提出一种面向旋翼飞行器的仿生机械臂,并针对仿生机械臂的控制问题,设计一种基于时延估计及模糊自适应增益调整的非奇异终端滑模控制器,该方法采用时延估计技术对仿生飞行机械臂系统的未知动力学参数进行估计,不需要精确的动力学模型,更具实用性。控制器的主要部分是非奇异终端滑模,在时延估计误差和外界干扰下,具有良好的跟踪精度和鲁棒性。此外,引入模糊自适应增益调整,使得误差能够更快收敛。最后,通过一个新设计的仿生机械臂实验平台进行对比实验。研究结果表明:与传统结构的飞行机械臂相比,面向旋翼飞行器的仿生机械臂具有更低的驱动能耗及更高的交互安全性。与传统的非奇异终端滑模控制器相比,该控制器具有更快的误差收敛速度,可以保证更优的综合控制性能,初始阶段跟踪误差峰值减小了近30%,稳定阶段误差峰值保持不超过1°。
    • 吴慧; 陈卫松
    • 摘要: 针对HB加权广义互相关时延估计算法在低信噪比情况下,算法性能急剧下降的问题,提出了一种联合加权广义互相关时延估计算法。该算法将SCOT加权函数和HB加权函数相结合,构成复合加权函数。在接收信号信噪比不高于10 dB的情况下,该算法能锐化时延估计的峰值、提高时延估计结果的鲁棒性。仿真结果表明,与现有同类算法相比,该算法时延估计的正确率更高,均方根误差值也更小。
    • 郭储磊
    • 摘要: 针对工业过程中由于时延问题造成软测量模型预测精度不高的问题,给出了一种通过差分进化算法估计时延的动态软测量方法。通过偏最小二乘法建立合适的适应度函数,将软测量系统的时延参数估计问题转化为一个多维非线性优化问题,然后利用差分进化算法的全局搜索能力求解该优化问题。针对PTA精制过程中的PTA平均粒径大小建模研究,结果表明,时延参数估计的引入大大提高了软测量模型的预测精度,证实了所提方法的有效性和可行性。
    • 徐河振; 于潇雁; 陈力
    • 摘要: 针对漂浮基空间机器人系统出现的载体姿态及位置不受控问题,提出了一种基于时延估计的跟踪控制方法。该控制方法采取时延估计为主体框架,对不确定参数及动力学特性进行实时估计,获得不确定项的估计误差,并在控制设计方案中对误差进行补偿。首先根据第二类Language方程建立机器人动力学模型,并结合时延估计简化动力学模型;然后结合滑模变结构控制,对估计误差进行修正和补偿,同时进一步引入指数趋近律方法,能有效削弱滑模带来的抖振问题,进一步提高了系统的稳定性;利用Lyapunov函数在设定参数下,保证了闭环系统的渐近稳定性和鲁棒性能,最后通过仿真验证了该方案可靠。
    • 洪梦君; 张军伟; 徐振源; 李玉海
    • 摘要: 光学元件损伤是限制激光通量水平提高的重要因素之一。为快速、准确地检测光学元件损伤是否产生,支撑光学元件循环修复策略的使用,研究并提出了基于声发射技术的光学元件损伤检测方法,通过研究光学元件损伤产生的声发射信号特征,判断光学元件是否发生损伤,使用一种基于二次相关和相关峰精确插值(FICP)的时延估计算法,通过仿真验证了该算法的可行性,结合时差定位原理建立了损伤位置求解方法,并通过实验进行了验证。研究结果表明:该方法能从监测信号中快速地获得损伤的位置估计,其平均定位误差为8.61 mm,计算时间为0.143 s/次,对大口径光学元件的损伤在线监测具有应用潜力。
    • 罗乐; 于玲
    • 摘要: 针对低信噪比环境下时延估计精度不足导致石油管道盗取定位不准确的问题,提出了一种PRLS自适应滤波时延估计算法。该算法首先利用主成分析法良好的降噪能力对信号进行预处理,接着对预处理后的信号进行最小二乘自适应滤波来进一步提高信噪比,然后对滤波后的信号进行二次互相关时延估计,最后进行三次样条插值,能够有效提升了算法在低信噪比环境下的鲁棒性。仿真实验表明,在信噪比为低于-10dB时,所提出的算法误差不高于0.0995个采样点,定位误差不大于0.334千米,能够获得较为精确的石油管道盗取点的位置。
  • 查看更多

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号