您现在的位置: 首页> 研究主题> 自然场景

自然场景

自然场景的相关文献在1991年到2022年内共计527篇,主要集中在自动化技术、计算机技术、无线电电子学、电信技术、中国文学 等领域,其中期刊论文162篇、会议论文11篇、专利文献40456篇;相关期刊119种,包括农业工程学报、农业机械学报、浙江大学学报(工学版)等; 相关会议11种,包括第七届中国信息融合大会、第17届全国图象图形学学术会议、第十届全国博士生学术年会等;自然场景的相关文献由1310位作者贡献,包括邹北骥、路通、操晓春等。

自然场景—发文量

期刊论文>

论文:162 占比:0.40%

会议论文>

论文:11 占比:0.03%

专利文献>

论文:40456 占比:99.57%

总计:40629篇

自然场景—发文趋势图

  • 期刊论文
  • 会议论文
  • 专利文献

搜索

排序:

年份

    • 陈宏; 魏伟; 何晓润; 王绍森
    • 摘要: 1项目构思项目位于厦门市的环东海域,直面大海、沙滩及新建的滨海景观带。作为未来厦门国际马拉松赛的起点站,场地前方有彩色的马拉松赛道通过,腹地则为大片城市休闲绿地,是典型的现代城市滨海空间。方案起源于对福建一个典型的本地自然场景的印象。
    • 刘艳菊; 伊鑫海; 李炎阁; 张惠玉; 刘彦忠
    • 摘要: 随着深度学习技术在计算机视觉领域的发展,场景文本检测与文字识别技术也有了突破性的进展。受到自然场景下极端光照、遮挡、模糊、多方向多尺度等情况的影响,无约束的场景文本检测与识别仍然面临着巨大的挑战。从深度学习的角度对场景文本检测和文字识别技术进行深入研究,总结出在文本检测技术中将基于分割的方法与回归的方法优势相结合,可以解决小文本区域的召回率较低的问题,同时适应多尺度文本;在文本识别方法中将CTC机制与Attention机制相结合,可以相互监督以提升识别性能,降低长文本识别的出错率。
    • 张高明; 仝明磊
    • 摘要: 自然场景中的文字常表现为多种样式(水平、倾斜、弯曲)。针对常规矩形检测框不能准确表示弯曲文字的问题,提出一种运用埃尔米特曲线表示任意形状文字的方法,改进后的模型只需预测文字区域4个角点的坐标以及对应位置处的斜率,即可根据埃尔米特曲线进行插值,准确表示图像中文字的位置信息。此外,在分类任务中增加文字实例质心预测分支,联合分类结果和质心预测结果,增大靠近文字实例中心处的分类预测值,减小远离中心处的分类预测值,提升模型准确率。实验部分,在标准数据集CTW1500进行的对比测试结果表明,埃尔米特曲线能够较好地表示任意形状文字区域。
    • 张展榜; 罗志聪; 周志斌; 李鹏博; 孙奇燕
    • 摘要: 为解决当前流行的目标检测模型对自然环境下百香果由于目标密集互相遮挡所致的检测效率低等问题,以YOLOv3网络为基础,提出了一种基于增强的YOLOv3百香果目标检测算法。首先,针对百香果目标尺寸的特点,利用以交并比为距离度量的改进K-means++算法,重新获取与目标果实相匹配的锚选框,提高对目标的框选精度以及模型的收敛速度;其次,在输出网络中将用来筛选目标预测框的Soft-NMS算法通过线性函数的形式对其高斯函数的抑制参数进行改进,以提高模型在不同密集场景下的适应性和检测能力;最后,利用增强的YOLOv3模型在经过预处理后的百香果数据集上进行多次试验对比,结果表明增强后的YOLOv3目标检测算法平均精度均值(mAP)达到94.62%,F_(1)值达到94.34%,较原YOLOv3算法分别提升了4.58和3.68百分点,平均检测速度为25.45帧/s,基本满足了自然环境下百香果目标检测的精准性和实时性要求。
    • 王霏; 黄俊; 文洪伟
    • 摘要: 针对深度学习文本检测算法存在运行速度慢、模型体积大等问题,提出了基于改进的YOLOv3(You Only Look Once v3)文本检测方法(mobile-text-YOLOv3)。通过深度可分离卷积思想轻量化Darknet-53网络,在高层特征借助双线性插值和偏移层使卷积核具有可变感受野,较大地改善了模型的性能;改进D-IOU,引入宽度惩罚,改善了锚框(anchor)在垂直方向稀疏和回归目标形状时不平衡的问题,提高了检测精度。实验结果表明,该改进算法精度比YOLOv3提高7个百分点,检测速度最高可达22 frame/s,与同类算法相比有更快的检测速度和更小的模型体积。
    • 胡巧遇; 仝明磊
    • 摘要: 针对自然场景下中文小文本难以定位的问题,提出了基于高斯密度图估计的并行深度网络对自然场景汉字进行检测。首先将中文数据集中的汉字位置信息转换为高斯文字密度图;其次引入一种多级并行连接结构,提高网络细节信息捕捉能力;最后再融合网络中的上采样特征信息得到高精度文字密度图,最终实现对文字区域的定位。在中文数据集CTW(Chinese text in the wild)上进行了实验,实验结果表明提出方法准确率和召回率均有较大提升,证明了该方法的可行性和准确性。
    • 齐秀芳; 吴陈
    • 摘要: 场景文本识别是近年来极具挑战性的任务,针对自然场景中密集文本形态多变和弯曲导致识别困难的特点,提出面向场景图像文本的矫正与识别方法。首先利用矫正网络矫正场景文本,然后将校正后的文本输入到双分支网络模块提取图像特征进行融合,双分支模块分别利用InceptionV2和可变卷积代替普通卷积,获取不同的感受域范围,并增加调整卷积核的方向向量,促使卷积核形态更贴近文本形状,最后通过嵌入注意力的双向门控循环单元获取不同权重的文本语义信息。实验结果表明,该模型在ICDAR2013、ICDAR2015和CUTE80数据集上取得了令人信服的结果,尤其在弯曲变形文本CUTE数据集上表现最好,准确率高达89.54%,相比传统方法提高了近1.9%,说明该模型可有效识别扭曲变形的文本信息。
    • 宋怀波; 王亚男; 王云飞; 吕帅朝; 江梅
    • 摘要: 针对油茶果体积小、分布密集、颜色多变等特点,为实现自然复杂场景下油茶果的快速精准定位,并依据果实的疏密分布,确定恰当的自动振荡采收装置夹持位置,利用YOLO v5s卷积神经网络模型,开展了自然环境下油茶果图像检测方法研究,用3296幅油茶果图像制作PASCAL VOC的数据集,对网络进行了150轮训练,得到的最优权值模型准确率为90.73%,召回率为98.38%,综合评价指标为94.4%,平均检测精度为98.71%,单幅图像检测时间为12.7 ms,模型占内存空间为14.08 MB。与目前主流的一阶检测算法YOLO v4tiny和RetinaNet相比,其精确率分别提高了1.99个百分点和4.50个百分点,召回率分别提高了9.41个百分点和10.77个百分点,时间分别降低了96.39%和96.25%。同时结果表明,该模型对密集、遮挡、昏暗环境和模糊虚化情况下的果实均能实现高精度识别与定位,具有较强的鲁棒性。研究结果可为自然复杂环境下油茶果机械采收及小目标检测等研究提供借鉴。
    • 尚钰莹; 张倩如; 宋怀波
    • 摘要: 疏花是苹果栽培的重要管理措施,机械疏花是目前最具有发展潜力的疏花方式,花朵的高效检测是疏花机器人高效作业的重要保障。该研究基于机器视觉与深度学习技术,提出了一种基于YOLOv5s深度学习的苹果花朵检测方法,在对田间拍摄得到的苹果花朵图像标注后,将其送入微调的YOLOv5s目标检测网络进行苹果花朵的检测。经测试,模型的精确率为87.70%,召回率为0.94,均值平均精度(mean Average Precision,mAP)为97.20%,模型大小为14.09 MB,检测速度为60.17帧/s,与YOLOv4、SSD和Faster-RCNN模型相比,召回率分别提高了0.07、0.15、0.07,m AP分别提高了8.15、9.75和9.68个百分点,模型大小减小了94.23%、84.54%、86.97%,检测速度提升了126.71%、32.30%、311.28%。同时,该研究对不同天气、颜色和光照情况下的苹果花朵进行检测,结果表明,该模型对晴天、多云、阴天、小雨天气下苹果花朵的检测精确率分别为86.20%、87.00%、87.90%、86.80%,召回率分别为0.93、0.94、0.94、0.94,m AP分别为97.50%、97.30%、96.80%、97.60%。该模型检测白色、粉色、玫红色和红色花朵的精确率分别为84.70%、91.70%、89.40%、86.90%,召回率分别为0.93、0.94、0.93、0.93,m AP分别为96.40%、97.70%、96.50%、97.90%。该模型检测顺光和逆光条件下苹果花朵的精确率分别为88.20%、86.40%,召回率分别为0.94、0.93,m AP分别为97.40%、97.10%。结果表明YOLOv5s可以准确快速地实现苹果花朵的检测,模型具有较高的鲁棒性,且模型较小,更有利于模型的迁移应用,可为疏花器械的发展提供一定的技术支持。
    • 宋彭彭; 曾祥进; 郑安义; 米勇
    • 摘要: 针对自然场景中由文本背景复杂、文字大小不同而引起的文本检测准确率不高的问题,提出了一种基于DenseNet改进的文本检测方法。首先使用DenseNet网络提取更深层次的文本特征,通过引入协调注意力,将位置信息嵌入通道注意力中获取大区域特征;其次对DenseNet网络使用特征融合技术,使改进后的网络能够提取文本信息更丰富的特征,降低了漏检和误检文本的概率。结果表明:该模型在数据集ICDAR2011和ICDAR2013中的准确率分别达到了0.88和0.89,证实了该改进方法的有效性。
  • 查看更多

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号