您现在的位置: 首页> 研究主题> 深度估计

深度估计

深度估计的相关文献在1995年到2023年内共计836篇,主要集中在自动化技术、计算机技术、无线电电子学、电信技术、物理学 等领域,其中期刊论文203篇、会议论文7篇、专利文献101359篇;相关期刊113种,包括农业工程学报、中国图象图形学报、红外与激光工程等; 相关会议7种,包括2016年全国声学学术会议、浙江省信号处理学会2014学术年会、2014黑浙苏鲁津四省一市声学学术会议等;深度估计的相关文献由2062位作者贡献,包括戴琼海、周武杰、李平山等。

深度估计—发文量

期刊论文>

论文:203 占比:0.20%

会议论文>

论文:7 占比:0.01%

专利文献>

论文:101359 占比:99.79%

总计:101569篇

深度估计—发文趋势图

深度估计

-研究学者

  • 戴琼海
  • 周武杰
  • 李平山
  • 孙韶媛
  • 周文晖
  • 张旭东
  • 叶昕辰
  • 金欣
  • 钱亚冠
  • 于涛
  • 期刊论文
  • 会议论文
  • 专利文献

搜索

排序:

年份

    • 胡坤; 陈迟晓; 李伟; 甘中学
    • 摘要: 目前大量被提出的关于单目视觉深度估计网络研究中其网络结构庞大臃肿,在实际部署中会存在占用大、延迟高的问题.针对以上问题,本文提出了基于可学习步长的量化策略的轻量化深度估计网络.该网络采取特征金字塔(FPN)的网络结构对图片不同尺度的特征信息进行提取.并结合内存优化,对网络的特征提取部分采用深度可分离卷积,使得网络相对于ResNet参数总量下降1/3.同时文中对特征解码器进行设计,网络计算中跳跃连接传递的参数量对比ResNet下降了68.61%.本文的轻量化深度估计网络参数位宽由32比特降至3比特.实验结果表明,轻量化后的深度估计网络的网络参数大小下降90.59%,在KITTI数据集上绝对相对误差为16.0%,最终轻量化的网络大小从34.12MB下降到了3.21MB.
    • 夏红杰; 陈姚节; 徐新; 王薇
    • 摘要: 为了利用单目视觉实时监测船舶行驶过程中与周围船舶之间的距离,首先分析单目视觉测距现状及其成功应用实例,基于小孔成像原理建立单目相机模型,通过几何推导,得到世界坐标系、相机坐标系、图像坐标系及像素坐标系之间三层坐标转换关系。随后通过实验验证pitch俯仰角与yaw水平角对单目视觉测距的影响程度,从而分析出动态船舶行驶场景下包括相机姿态、船舶在水面摇晃等实时单目测距误差。进而在引入包含俯仰角、水平角的相似三角形测距算法的基础上,采用高精度陀螺仪相机姿态补偿策略提出改进的基于单目视觉的相似三角形目标船舶测距算法。实验结果表明,该算法能在动态船舶行驶过程中较为准确地测量周围水域目标船舶之间的距离,可以满足船舶实时安全监测系统的要求。
    • 姚辉; 缪君; 雷蕾; 郑义林; 年小虎
    • 摘要: 平面分割和参数估计是基于单幅室内场景图像分段平面三维重建的关键技术。目前基于卷积神经网络的方法难以获取全局上下文信息且未充分考虑特征通道间的关系,易造成小平面分割不准确及平面细节丢失,导致对应区域的参数估计出现较大误差。为此,提出了一种特征通道和空间注意力机制融合的卷积神经网络模型,该模型利用通道注意力对网络通道间特征响应进行标定,再结合空间注意力提取编码器中的空间语义信息,使网络也能聚焦于小平面和平面细节。实验表明,提出的方法能显著提高平面分割精度,且深度预测精度达到93.57%,有效提升了场景三维重建精度。
    • 刘云萍; 韩艳丽
    • 摘要: 多传感器机器人定位信息由于存在定位信息量大、干扰因素多等原因,导致挖掘精度差、耗时长、内存占用率高的问题。提出基于深度估计法的多传感器机器人定位信息挖掘方法。首先对多传感器机器人定位进行分析,获取多传感器机器人定位信息;其次,采用极大似然估计法对多传感器机器人定位信息进行预处理;然后,采用深度估计法对多传感器机器人定位信息挖掘;最后进行实验分析。实验结果表明,采用所提方法可有效提高挖掘精度、缩短挖掘时间、降低内存占比,具有一定的优势。
    • 李建; 肖曙红; 许勤益; 招子安
    • 摘要: 在基于图像的视觉伺服系统中,由于图像雅可比矩阵是时变的,实时求解图像雅可比矩阵是该领域研究的一个关键问题。提出了一种已知物体表面几何形状尺寸快速求解特征点深度信息的算法,并计算出当前时刻图像雅可比矩阵的值。在仿真实验中验证了该算法的有效性,仿真结果表明:4个特征点误差呈指数趋势下降,且机器人每个关节的速度曲线较为光滑,机器人能较为光滑地运动到期望位置,没有明显的抖动现象,机器人末端的速度曲线图也较为光滑,相机没有发散或回退的现象出现。最后,相机安装在6自由度机器人末端,完成对一个静态物体定位精度的研究。实验结果表明:四个特征点的误差最终收敛至1个像素以内,进一步验证了该算法的有效性。
    • 廖志伟; 金兢; 张超凡; 杨学志
    • 摘要: 场景深度估计是场景理解的一项基本任务,其准确率反映了计算机对场景的理解程度。传统的深度估计利用金字塔池化(ASPP)模块可以在不改变图像分辨率的情况下处理不同像素特征,但该模块未考虑不同像素特征之间的关系,导致场景特征提取不准确。针对 ASPP 模块在深度估计中出现的弊端,提出了一种改进型的 ASPP 模块,解决了该模块在图像处理中存在的失真问题。首先在卷积核后添加基于分层压缩激励的ASPP 结构块,结合各像素特征之间的关系,让网络自适应学习感兴趣部分;再通过构造差值矩阵解决网络层次优化问题;最后在室内公共数据集 NYU-Depthv2 上进行深度估计网络模型的搭建。与当前主流算法相比,文中算法在定性、定量指标上均有良好表现。在相同的评估指标下,δ;阈值精度提升近 3%,均方误差(RMSE)、绝对误差(Abs Rel)下降 1.7%,对数域误差(lg)下降约 0.3%。该方法所训练的网络模型,解决了传统 ASPP 模块未考虑不同像素特征之间关系的问题,特征提取能力增强,场景深度估计的结果更加准确。
    • 宋磊; 李嵘; 焦义涛; 宋怀波
    • 摘要: 幼苗高度是幼苗培育过程中的重要性状,是幼苗生长状况和优良性状筛选的重要参考指标。针对目前研究多选用专业测量工具、使用带有标记的测量手段这一现状,该研究提出了一种基于单目图像深度估计技术的幼苗高度无参测量方法。首先以NYU Depth Dataset V2深度数据集为基础,以ResNeXt 101网络为深度估计网络主体实现植株图像深度估计。通过深度信息计算出拍摄点到植株的真实距离,结合图像中幼苗植株的像素高度和标定好的视场角实现幼苗高度的测量。为验证该方法的有效性,通过采集不同距离下的番茄幼苗图像1728幅,辣椒幼苗图像160幅,甘蓝幼苗图像160幅进行植株高度测量试验。试验结果表明,在拍摄距离为105cm内番茄幼苗平均绝对误差(Mean Absolute Error,MAE)为0.569 cm,均方根误差(Root Mean Square Error,RMSE)为0.829 cm,平均植株高度比例为1.005。辣椒,甘蓝幼苗的MAE为0.616和0.326cm,RMSE为0.672和0.389cm。每株幼苗高度的平均计算时间为2.01s。试验结果表明该方法具有较好的可行性和普适性。不同光照强度下植株高度测量结果表明,在感光度小于160时,植株高度测试结果的MAE为0.81 cm,仍具有较好的测量准确度。当单幅图像中植株个数处于5以内时,MAE和RMSE的平均值分别为0.652和0.829cm。研究结果表明,该模型可以较准确地从单幅图像中检测出多株植株高度,且在不同距离和一定光照强度变化内均可完成多种幼苗植株高度的精确测量。可为幼苗培育和成长时期判断等研究提供一种无损的植株高度测量方法。
    • 张蕾; 王园宇; 张文涛
    • 摘要: 针对雾霾情况下室内外图像深度难以估计的问题,提出了融合感知损失函数的单幅雾霾图像深度估计方法。首先采用双尺度网络模型对雾霾图像进行粗提取,再结合底层特征进行局部细化;然后在上采样阶段使用多卷积核上采样方法,得到雾霾图像的预测深度图;最后将像素级损失函数与感知损失函数结合构造新的复合损失函数,对网络进行训练。在室内NYU Depth v2数据集和室外Make3D数据集上进行训练、测试和验证,结果表明:添加了多卷积核上采样方法和复合损失函数的双尺度网络模型能够很好地估计出单幅雾霾图像的深度信息,提高了雾霾情况下的深度估计精度和质量,同时缩短了模型训练时间,提高了对雾霾图像深度估计的适用性和准确性。
    • 贠璟扬; 李学华; 向维
    • 摘要: 目前利用深度学习进行多视图深度估计的方法可以根据卷积类型可以大致分为两类。其中,基于2D卷积网络的模型预测计算速度快,但预测精度较低;基于3D卷积网络的模型预测精度高,却存在高硬件消耗。同时,多视图中相机外部参数的变化使得模型无法在物体边缘、遮挡或纹理较弱区域生成高精度预测结果。针对上述问题,提出了基于3D卷积的语义导向多尺度多视图深度估计算法,在保证预测精度的同时降低硬件消耗。同时针对遮挡、纹理较弱等区域,利用网络自身提取的图片特征作为先验导向信息,增强网络对全局信息的感知,结合多尺度融合方法增强网络的鲁棒性。在公开数据集的测试对比中,提出的方法预测深度图结果更加清晰,并能有效地应对图片中物体边界、遮挡等区域。
    • 张香竹; 张立家; 宋逸凡; 裴海龙
    • 摘要: 针对基于单目视觉的无人机(UAV)避障问题,本研究提出基于单目深度估计和目标检测的四旋翼自主避障方法。其中,单目深度估计模型提供障碍物像素级别的深度信息,目标检测模型提供障碍物的位置信息。单张红绿蓝(RGB)图像的深度图和目标检测结果由卷积神经网络(CNN)获得;图像的区域划分以目标检测结果为依据,区域深度以深度估计结果为计算依据;规划算法依据区域深度和区域划分结果计算无人机的线速度和角速度,实现无人机的自主避障。为验证算法的自主避障性能,采用Parrot Bebop2无人机对本研究提出的算法与直飞算法进行实飞对比实验。结果表明:本研究提出的算法可用于四旋翼无人机的低速自主避障。
  • 查看更多

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号