您现在的位置: 首页> 研究主题> 显著区域

显著区域

显著区域的相关文献在2004年到2022年内共计195篇,主要集中在自动化技术、计算机技术、无线电电子学、电信技术 等领域,其中期刊论文68篇、会议论文4篇、专利文献49646篇;相关期刊48种,包括中国图象图形学报、电视技术、光电工程等; 相关会议4种,包括第八届国家安全地球物理学术讨论会、第五届全国几何设计与计算学术会议(GDC2011)、第九届全国信息隐藏暨多媒体信息安全学术大会CIHW2010等;显著区域的相关文献由481位作者贡献,包括梁晔、张春龙、彭进业等。

显著区域—发文量

期刊论文>

论文:68 占比:0.14%

会议论文>

论文:4 占比:0.01%

专利文献>

论文:49646 占比:99.86%

总计:49718篇

显著区域—发文趋势图

显著区域

-研究学者

  • 梁晔
  • 张春龙
  • 彭进业
  • 戴琼海
  • 李琼
  • 焦李成
  • 牛夏牧
  • 王好谦
  • 贺欣
  • 韩琦
  • 期刊论文
  • 会议论文
  • 专利文献

搜索

排序:

年份

作者

    • 陈少玉; 曾惠蘋
    • 摘要: 基于地理核心素养培养的需要,开发标注版景观图,以营造真实客观、生动直观的地理教学情境,满足学生进行地理综合思维建构的图像工具需求。
    • 涂直健; 张天序; 桑红石
    • 摘要: 针对序列图像中目标因不显著、被遮挡等情况而出现的虚警或丢失问题,提出一种基于自动选取辅助目标的建筑物目标间接定位方法,提高目标跟踪稳定性.该方法首先自动选取红外图像中形状稳定、灰度显著的区域作为辅助目标.定位建筑物目标后,提取其与目标相对位置关系,之后利用该相对位置间接定位,最后融合直接识别及间接定位结果定位目标,并能实时更新辅助目标,保证其时刻处于视场中.实验结果表明:通过间接定位能解决目标虚警或丢失问题,提升目标定位过程中算法的准确性及鲁棒性.
    • 尹红; 符祥; 曾接贤; 段宾; 陈英
    • 摘要: 目的 针对花卉图像标注样本缺乏、标注成本高、传统基于深度学习的细粒度图像分类方法 无法较好地定位花卉目标区域等问题,提出一种基于选择性深度卷积特征融合的无监督花卉图像分类方法 .方法 构建基于选择性深度卷积特征融合的花卉图像分类网络.首先运用保持长宽比的尺寸归一化方法对花卉图像进行预处理,使得图像的尺寸相同,且目标不变形、不丢失图像细节信息;之后运用由ImageNet预训练好的深度卷积神经网络VGG-16模型对预处理的花卉图像进行特征学习,根据特征图的响应值分布选取有效的深度卷积特征,并将多层深度卷积特征进行融合;最后运用softmax分类层进行分类.结果 在Oxford 102 Flowers数据集上做了对比实验,将本文方法与传统的基于深度学习模型的花卉图像分类方法进行对比,本文方法的分类准确率达85.55%,较深度学习模型Xception高27.67%.结论 提出了基于选择性卷积特征融合的花卉图像分类方法,该方法 采用无监督的方式定位花卉图像中的显著区域,去除了背景和噪声部分对花卉目标的干扰,提高了花卉图像分类的准确率,适用于处理缺乏带标注的样本时的花卉图像分类问题.
    • 白若涵
    • 摘要: 如今视觉显著性目标检测在很多方面起着较高的应用价值,上至国家安全系统、智能武装系统、航天系统,下至生活中的监控系统、智能机器人、医疗设备。它往往作为传统目标检测、目标跟踪,图像分割,图像压缩、检索等模块的预处理模块,将图片或帧图像区分成两部分即显著区域和不显著区域,使得在后续处理中可以对不同区域采用不同且适宜的算法,从而更好地利用计算机资源,提高信息处理的效率,节约运行时间。
    • 刘骊; 郑源野; 付晓东; 刘利军; 黄青松
    • 摘要: 针对目前多目标服装图像存在复杂的背景以及遮挡,导致分割准确率较低的问题,提出一种多目标服装图像的协同分割方法.首先结合辅助数据集提取输入的多目标服装图像的显著区域特征,并对多目标服装图像进行初步分割.然后,对初步分割结果、包含同类对象的小型图像集构建可能区域图结构,并进行协同分割,得到候选多区域服装特征;最后,通过多区域服装特征之间的相似度计算以及共同对象分割,输出图像分割结果.实验结果表明,该方法具有较高的效率和准确率,能有效分割出多目标服装图像.
    • 梁晔; 于剑
    • 摘要: 网络技术和社交网站的发展带来了社群图像的飞速增长.海量的社群图像成为了非常重要的图像类型.本文关注社群图像的显著区域检测问题,提出基于深度特征的显著区域检测方法.针对社群图像带有标签的特点,在系统框架中,本文采取两条提取线:基于CNN特征的显著性计算和基于标签的语义计算,二者的结果进行融合.最后,通过全连接的条件随机场模型对融合的显著图进行空间一致性优化.此外,为了验证面向社群图像的显著区域检测方法的性能,针对目前没有面向社群图像的带有标签信息的显著性数据集,基于NUS-WIDE数据集,本文构建了一个图像结构丰富的社群图像数据集.大量的实验证明了所提方法的有效性.%The development of network technology and social website has brought about the rapid growth of social im-ages. Massive social images have become a very important image type. This paper focuses on the detection problem of salient region for social images, a method for detecting salient region and based on depth features was proposed. By con-sidering the feature that the social image is attached with tag, in the framework of the system, the paper used two extrac-tion lines: the saliency computing based on CNN features and the semantic computing based on tag, the results of both parts were fused. Finally, saliency maps were optimized by a fully connected conditional random field model for the spatial consistency. In addition, for verifying the performances of the saliency region detection method orienting social image, in view of the lack of saliency dataset with tags for social images, on basis of NUS-WIDE dataset, the paper con-structed a social image dataset with rich image structures. Extensive experiments demonstrated the effectiveness of the proposed method.
    • 张玉薇; 潘勇才
    • 摘要: 鉴于Itti视觉注意机制计算模型对显著性区域检测方面的不足,提出一种改进型的基于边缘检测的视觉注意计算模型.该模型在Itti模型基础上,引入边缘信息,能够改善视觉注意计算模型中的显著区域提取效果,且可以更加准确地分割显性区域.实验表明,该方式较传统视觉模型在计算速度上有所提高,且目标物轮廓识别效果更好.
    • 周莺; 张基宏; 梁永生
    • 摘要: To evaluate accurately the video quality and make it consistent with the subjective evaluation result,a video quality assessment method based on saliency region and motion characteristics weighting is proposed in this paper.This method is based on traditional structural similarity index measurement (SSIM) and makes some improvement.The spatial and temporal saliency is firstly extracted by spectrum analysis and visual attention model combined with motion characteristics,respectively.Then the frame saliency can be extracted by dynamic fusion of temporal and spatial saliency.Finally,the quality assessment index for entire video frame can be got by frame saliency weighted SSIM.The results of experiment on LIVE VQA standard data set show that this index is more close to objective assessment on video quality from human visual system.%进行客观视频质量评价时,为了与主观评价结果尽可能一致,需要考虑视频的动态特性和人眼观看的视觉特性,因此本文提出一种基于显著区域和运动特性加权的视频质量评价方法.该评价指标基于传统的结构相似性指数(Structural similarity index measurement,SSIM)方法并在此基础上作了改进.首先通过频谱分析得到空域显著度,通过视觉注意模型并结合运动特性获取时域显著度,并根据时、空显著度动态融合得到帧级显著度.以帧级显著度加权SSIM指数,便可得到整个视频帧的质量评价指标.在LIVE VQA标准数据集上的实验结果表明,该评价指标更加接近于人眼对视频质量的主观评价值.
  • 查看更多

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号