首页> 中文学位 >基于手势动作的三维交互展示方法研究
【6h】

基于手势动作的三维交互展示方法研究

代理获取

目录

声明

致谢

摘要

1 绪论

1.1 引言

1.2 课题意义

1.3 国内外研究现状

1.4 本文的主要工作

1.5 本文的组织结构

2 新生代体感交互设备Kinect

2.1 Kinect的介绍

2.2 Kinect的开发环境及规格介绍

2.3 Kinect的功能介绍

2.4 Kinect的功能介绍

2.4.1 Kinect体感摄像头工作原理

2.4.2 Kinect深度数据的处理

2.5 本章小结

3 Unity3D概述及其功能介绍

3.1 Unity3D特色介绍

3.1.1 Unity3D的特色

3.1.2 Unity3D的界面介绍

3.1.3 Unity3D的脚本语言

3.2 关键技术介绍

3.3 本章小结

4 基于手势动作的三维交互展示系统结构功能设计

4.1 系统总体方案设计

4.2 Unity3D功能模块的实现

4.2.1 系统展示界面的设计

4.2.2 Unity3D中模型控制功能的实现

4.3 Kinect体感交互的实现

4.3.1 Kinect的位置分析

4.3.2 Kinect数据获取

4.3.3 运动平滑处理

4.4 手势识别算法

4.4.1 手势的定义

4.4.2 手势识别算法描述

4.5 本章小结

5 基于手势动作的三维交互展示系统实现及应用

5.1 系统实验平台

5.2 应用实例

5.3 本章小结

6 总结与展望

6.1 总结

6.2 前景展望

参考文献

作者简历

论文数据集

展开▼

摘要

随着3D虚拟现实技术的飞速发展,3D引擎在三维展示领域起到了关键作用。三维展示技术是虚拟人机交互应用的重要领域,随着计算机在人们日常生活中的应用日渐普及和深入,传统的基于键盘和鼠标的人机交互方式已经不能满足人们的需求,人们需要更加智能化、更加人性化的交互方式。运用虚拟交互技术,用户可以通过计算机进入虚拟环境,能够操纵系统中的对象并与虚拟展示物进行交互,将以“静态”为主的参观方式,转变为多感官互动的“动态”参观方式。打破了传统展示在时间、空间和地域上的限制,提高了展示效果和展出效率,将三维展示提高到了一个崭新的阶段。
  为了给用户带来更加逼真直观的感受,本文基于新兴体感交互设备Kinect对人体深度图像和骨骼运动数据提取的原理,结合Unity3D平台,提出了一种基于手势识别三维交互展示方法,实现了人与三维展示系统的交互。本文的主要工作有:
  (1)实现了Kinect深度图像以及骨骼节点的获取并对骨骼节点进行了运动平滑处理。
  (2)定义了一套人体手势指令,提出了基于Kinect的深度图像获取与骨骼捕获的手势识别算法;
  (3)设计并实现了基于手势识别的展品三维展示的原型系统,实现了手势指令对文物三维展示系统的实时交互控制。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号