首页> 中文学位 >基于眼动追踪技术的区域显著性评估方法研究
【6h】

基于眼动追踪技术的区域显著性评估方法研究

代理获取

目录

声明

致谢

摘要

1 绪论

1.1 眼动仪及眼动追踪技术概述

1.1.1 眼动仪简介

1.1.2 眼动追踪技术概述

1.2 局部特征描述子算法的发展及分类

1.3 本文主要研究内容和创新点

1.4 本文章节安排

2 相关研究工作综述

2.1 图像局部特征点描述子算法

2.1.1 图像局部特征点描述子算法概述

2.1.2 尺度不变特征变化(SIFT)算法

2.2 选择性注意机制及视觉显著性计算模型

2.2.1 选择性注意机制

2.2.2 视觉显著性计算模型

2.3 基于BoW的图像检索介绍

2.3.1 词袋模型(BoW)

2.3.2 基于BoW的图像检索

3 基于局部对称性的SIFT特征点选择

3.1 引言

3.2 对称性及对称性算子

3.2.1 视觉中的对称性

3.2.2 对称性算子

3.2.3 SIFT特征点的局部对称性度量

3.3 基于局部对称性的图像检索

3.3.1 过滤方法

3.3.2 加权策略

3.4 实验结果与分析

3.4.1 过滤方法实验结果

3.4.2 加权策略实验结果

3.4.3 图像检索结果示例及分析

4 基于眼动追踪技术的SIFT特征点排序

4.1 引言

4.2 基于学习的排序模型

4.2.1 Rank-SVM模型

4.2.2 Rank-SIFT算法

4.3 眼动实验

4.4 基于眼动追踪技术的Rank-SIFT算法

4.5 实验结果与分析

5 总结和展望

参考文献

作者简历

学位论文数据集

展开▼

摘要

近些年来,随着图像检索技术的不断发展,以及计算机处理能力的不断提高,促使图像处理和计算机视觉等领域迅速地发展起来。局部不变特征的提取作为计算机视觉中最重要的步骤之一,也得到了越来越多的关注和研究。大量实验表明,局部不变特征作为一种图像特征提取的有效工具,几乎能够适应各种图像处理的应用场合。然而,传统的局部特征检测方法主要是基于一些简单规则来选取稳定的特征点,这些规则并不具有普遍性,如何得到稳定的局部特征点仍然是一个亟待解决的问题。本文对尺度不变特征变换(Scale Invariant Feature Transform,SIFT)算法进行研究,采用非监督学习和监督学习两种方式来改进传统的SIFT算法,以获取更加稳定的局部特征点。
  在基于词袋模型的图像检索框架中,图像包含的SIFT特征点往往数量比较大,特征不够强,因此图像检索系统的效率和性能都会受到影响。以SIFT特征点的性质和视觉显著性原理为依据,本文提出了SIFT特征点的局部对称性度量方法,并且在图像检索框架中嵌入了基于对称性的SIFT特征点过滤方法和加权策略,提升SIFT特征点的利用效率。另外,本文采用基于学习的排序框架,并结合眼动追踪实验,根据视觉选择性注意机制提出使用数据驱动的监督学习方法来评估每一个候选特征点的稳定性,从中选择出稳定的特征点。在牛津大学建筑物图像集上的图像检索实验结果表明:本文提出的根据对称性及学习排序的SIFT特征点选择策略能有效地提高图像检索的性能。最后,本文通过眼动追踪实验采集了一个通用性好、易用性强的眼动数据集,以供科研使用。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号