您现在的位置: 首页> 研究主题> 目标检测

目标检测

目标检测的相关文献在1985年到2023年内共计17229篇,主要集中在自动化技术、计算机技术、无线电电子学、电信技术、公路运输 等领域,其中期刊论文6020篇、会议论文422篇、专利文献1153939篇;相关期刊1184种,包括系统工程与电子技术、中国图象图形学报、电子与信息学报等; 相关会议266种,包括第十三届全国雷达学术年会、第二届全国图象图形联合学术会议、雷达网第十九届年会暨军民两用雷达技术在国民经济建设中的应用研讨会等;目标检测的相关文献由33705位作者贡献,包括焦李成、刘宏伟、关键等。

目标检测—发文量

期刊论文>

论文:6020 占比:0.52%

会议论文>

论文:422 占比:0.04%

专利文献>

论文:1153939 占比:99.44%

总计:1160381篇

目标检测—发文趋势图

目标检测

-研究学者

  • 焦李成
  • 刘宏伟
  • 关键
  • 张伟
  • 侯彪
  • 刘芳
  • 马文萍
  • 何友
  • 不公告发明人
  • 张磊
  • 期刊论文
  • 会议论文
  • 专利文献

搜索

排序:

年份

作者

    • 李伟达; 叶靓玲; 郑力新; 朱建清; 曾远跃; 林俊杰
    • 摘要: 以YOLOv5 s网络模型为基础,引入注意力机制CBAM模块,基于Ghost卷积模块重构网络模型的卷积操作,提出一种面向扶梯不安全行为的改进型深度学习检测算法.然后,在自主收集的扶梯不安全行为数据集上对其进行训练评估.结果表明,所提算法在检测精度有所提高的同时,大幅减少了检测所需的参数量和计算量.
    • 冼祥贵; 尚振宏; 袁梅宇; 杨志鹏; 强振平
    • 摘要: 日冕物质抛射(Coronal Mass Ejection,CME)是一种强烈的太阳爆发现象,对空间天气和人类生活有巨大的影响,因此,日冕物质抛射检测对预报日冕物质抛射、保障人类的生产生活安全具有重要意义.现有的日冕物质抛射检测多采用人为定义特征和界定阈值等方法.由于人为定义特征不能准确表征日冕物质抛射且具有普适性的阈值难于选择,现有的方法对日冕物质抛射的检测效果有待提高.提出一种基于Faster R-CNN(Faster Region-based Convolutional Neural Networks)的日冕物质抛射检测算法.该方法首先结合CDAW(Coordinated Data Analysis Workshop Data Center),SEEDS(Solar Eruptive Even Detection System)和CACTus(Computer Aoded CME Tracking software package)3个著名的日冕物质抛射目录信息,人工标注了包含9113幅日冕图像的数据集,然后根据日冕物质抛射的图像特征较自然图像少、目标尺寸与自然图像有差异等特点,在特征提取和锚点选择方面对Faster R-CNN进行改进.以2007年6月的日冕物质抛射标注数据为测试集,本文算法检出了全部22个强日冕物质抛射事件和151个弱日冕物质抛射事件中的138个,对日冕物质抛射事件的中心角和角宽度等特征参数的检测误差分别在5°和10°以内.
    • 张瑞琰; 姜秀杰; 安军社; 崔天舒
    • 摘要: 由于深度卷积网络的参数量及计算量过大,多尺度目标检测网络难以快速高精度地部署在许多资源及功耗受限的平台上.为解决此问题,本文基于Python productivity for ZYNQ(PYNQ)框架实现了无预选框检测模型CTiny的IP核设计及异构系统架构部署.首先,提出在卷积核中分段量化整体缩放系数的方式,使得预训练的高精度算法低损地部署于可编程门阵列(field programmable gate array,FPGA)上;其次,基于PYNQ框架实现了CTiny模型的系统搭建,包含ResNet主干网络、反卷积网络和分支检测网络;最后,将图片预处理及后处理等耗时计算从串行的ARM端移入并行的FPGA中,进一步缩减了总处理时长.实验结果表明:在PYNQ-Z2开发板上部署CTiny模型后,本文所提量化方式在公开光学遥感数据集NWPU VHR-10的平均检测精度达到81.60%,相较于截断量化提升了14.27%,实现了部署精简无预选框检测网络的精度低损耗的需求,且后处理的处理时长由ARM端的9.228 s缩减为了FPGA端的0.008 s,提高了检测模型的速度.
    • 蔡前舟; 郑伯川; 曾祥银; 侯金
    • 摘要: 基于红外相机图像的野生动物目标检测有利于研究和保护野生动物。由于不同种类的野生动物数量差别大,红外相机采集到的野生动物数据集存在种类数量分布不均的长尾数据问题,进而影响目标检测神经网络模型的整体性能提升。针对野生动物的长尾数据导致的目标检测精度低的问题,提出了一种基于两阶段学习和重加权相结合的长尾数据解决方法,并将该方法用于基于YOLOv4-Tiny的野生动物目标检测。首先,采集、标注并构建了一个新的野生动物数据集,该数据集具有明显的长尾数据特征;其次,采用基于迁移学习的两阶段方法训练神经网络,第一阶段在分类损失函数中采用无加权方式进行训练,而在第二阶段提出了两种改进的重加权方法,并以第一阶段所得权重作为预训练权重进行重加权训练;最后,对野生动物测试集进行测试。实验结果表明,在分类损失采用交叉熵损失函数和焦点损失函数下,所提出的长尾数据解决方法达到了60.47%和61.18%的平均精确率均值(mAP),相较于无加权方法在两种损失函数下分别提高了3.30个百分点和5.16个百分点,相较于所提改进的有效样本加权方法在焦点损失函数下提高了2.14个百分点,说明该方法能提升YOLOv4-Tiny网络对具有长尾数据特征的野生动物数据集的目标检测性能。
    • 方娟; 方振虎
    • 摘要: 为了降低动态环境对同时定位与建图(simultaneous localization and mapping,SLAM)位姿估计的干扰,提出一种将目标检测网络与ORB-SLAM2系统结合的方法.在帧间估计阶段,使用目标检测网络获取当前帧的语义信息,得到潜在可移动物体边界框,结合深度图像并根据最大类间方差算法分割出边界框内前景,把落在前景中的动态特征点剔除,利用剩下的特征点估计位姿.在回环检测阶段,利用边界框构建图像语义特征,并与历史帧比较,查询相似关键帧,与视觉词袋法相比,该方法查询速度快,内存占用少.在TUM Techni数据集上进行测试,结果表明该方法可以有效提高ORB-SLAM2在高动态场景中的性能.
    • 杨佳云; 么一诺; 于鲲; 柳秀梅; 于明鹤; 赵志滨
    • 摘要: 基本的目标检测任务是在图像中识别目标,并标注目标的类别和位置信息。但是,很多应用中的目标检测任务常常带有语义约束,典型的包括单类别目标的数量约束和多个目标之间的空间位置约束。如在基于视频的生产安全监控系统中,目标检测不仅要识别和标定安全防护装备,还要检测这些安全防护装备是否被规范穿戴。提出了一种目标检测中语义约束检查算法,定义一种语义约束的模型,然后对图像进行带有语义信息的目标检测,最终对目标检测结果与语义约束进行一致性判定。以电力施工防护装备检查的实际需求和现场安监视频为例,验证了所提出的目标检测中语义约束检查算法的有效性。
    • 张建贺; 陶杭宇; 王亚名; 陈积泽; 姜晓燕
    • 摘要: 为解决未标定摄像头监控视频中行人安全社交距离的估计问题,提出将行人检测、单应性与尺度估计相结合的方法,对单目相机中行人是否处于安全社交距离进行二分类。首先基于YOLOv5s框架,采用MSCO⁃CO数据集中只含有行人的数据训练得到鲁棒性较好的行人检测器;然后根据相机成像模型假设,推导出从场景地面到图像平面的单应性矩阵,再通过人类平均身高和图像行人检测框高度估计从场景地面到图像中行人局部区域的尺度信息,从而在图像上投影出行人椭圆形安全区域;最后通过计算图像中行人安全区域的重叠情况判断其是否违反安全社交距离。实验结果表明,当IoU=0.5时,该方法在MSCOCO只含行人数据的验证集上的行人检测准确率、召回率和AP分别达到81.39%、82.39%和76.52%;在OTC数据集上行人安全社交距离二分类的准确率、召回率和F1值分别达到98.99%、89.12%和93.79%。所提方法在一般监控场景下对行人安全社交距离违反情况的检测性能较佳。
    • 张锦; 屈佩琪; 孙程; 罗蒙
    • 摘要: 针对现有安全帽佩戴检测干扰性强、检测精度低等问题,提出一种基于改进YOLOv5的安全帽检测新算法。首先,针对安全帽尺寸不一的问题,使用K-Means++算法重新设计先验框尺寸并将其匹配到相应的特征层;其次,在特征提取网络中引入多光谱通道注意力模块,使网络能够自主学习每个通道的权重,增强特征间的信息传播,从而加强网络对前景和背景的辨别能力;最后,在训练迭代过程中随机输入不同尺寸的图像,以此增强算法的泛化能力。实验结果表明,在自制安全帽佩戴检测数据集上,所提算法的均值平均精度(mAP)达到96.0%,而对佩戴安全帽的工人的平均精度(AP)达到96.7%,对未佩戴安全帽的工人的AP达到95.2%,相较于YOLOv5算法,该算法对佩戴安全帽的平均检测准确率提升了3.4个百分点,满足施工场景下安全帽佩戴检测的准确率要求。
    • 冯强中
    • 摘要: 本文针对施工现场人工审核目标数量多、定位困难及审核准确率低等问题,提出了基于卷积神经网络的多场景施工质检。通过对施工多场景进行目标分类及目标标注,利用YoloV3和InceptionV4算法训练得到AI检测模型。在质检模块嵌入AI应用,实现APP端上传的质量控制关键环节的影像资料的在线自动判别,以规范和验证现场施工作业行为,促进施工质量的提升,实现工程建设数字化、智慧化。结果表明,本文提出的施工场景的自动判别相比于人工审核具有更高的准确率与更低的时间花费。
    • 程国安; 王浩; 王胜科
    • 摘要: 随着经济高速发展,经略海洋与海洋经济发展成为国家重要发展战略,港口设施建设和完善对于海洋经济发展有着重要作用。然而,港口重型机械以及轮机操作对作业人员安全有潜在威胁,智能化、信息化码头建设势在必行。近年计算机视觉和深度学习技术快速发展,为港口应用智能视觉技术提供了有力的技术支撑。基于深度学习框架YOLOV4搭建了港口作业人员目标检测平台,在自建港口收集并整理了一个大规模作业人员视频数据集,在该数据集上实现不同作业场景下港口作业人员的精确检测。在自建港口作业人员数据集上将FasterRCNN、SSD和YOLOV4三种目标检测框架进行实验对比,结果表明,YOLOV4的平均检测准确率优于其它目标检测框架。基于YOLOV4的港口作业人员检测系统应用提高了港口信息化建设进度,提高了港口作业人员的安全性。
  • 查看更多

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号