文摘
英文文摘
第一章绪论
§1.1研究背景
§1.2研究意义及前景
§1.3虚拟人面部设计系统的研究现状
§1.3.1模型设计方法
§1.3.2模型获取方法
§1.3.3模型驱动参数获取方法
§1.3.4目前已有的虚拟人物设计系统
§1.4本论文的主要研究内容和创新点
第二章虚拟人面部设计系统
§2.1系统组成
§2.1.1人脸模型重建模块
§2.1.2面部模型控制模块
§2.1.3面部驱动参数获取模块
§2.2系统的创新
第三章具有真实感的虚拟人人脸模型重建
§3.1标准模型重建
§3.1.1照片的拍摄
§3.1.2预处理
§3.1.3特征点的选择及表示
§3.1.4三维网格模型
§3.2具有真实感虚拟人脸模型重建
§3.2.1标准模型匹配
§3.2.2人脸校准
§3.2.3生成肌肉人脸模型
§3.2.4纹理匹配
§3.3试验结果
§3.4本章小结
第四章虚拟人物面部运动的量化控制方法
§4.1 WATERS人脸肌肉模型及驱动原理
§4.1.1 Waters人脸肌肉模型的组成
§4.1.2人脸肌肉模型驱动函数
§4.2人脸肌肉模型的表情口型量化控制
§4.2.1 MPEG4参数标准
§4.2.2肌肉收缩参数的归一化处理
§4.3表情量化控制运用之一——表情库的建立
§4.3.1表情库结构
§4.3.2情库建立方法
§4.3.3参数△li控制表情试验结果
§4.4本章小结
第五章人脸肌肉模型的单视频驱动方法
§5.1肌肉模型的单视频驱动原理
§5.2单视频驱动的方法流程
§5.2.1坐标系及控制点位移计算
§5.2.2数据的比例变换
§5.2.3计算肌肉收缩量
§5.2.4面部任意点位移的计算
§5.3试验结果
§5.4基于统计约束的KLT跟踪算法原理
§5.4.1 KLT跟踪算法原理
§5.4.2 KLT跟踪算法用于人脸特征跟踪面临的主要问题
§5.4.3加入统计约束的KLT跟踪算法原理
§5.5基于统计约束的KLT跟踪算法流程
5.6试验和结论
§5.6.1实验方法
§5.6.2实验结果和结论
§5.7本章小结
第六章通过语音获取口型运动参数的研究
§6.1 LIP SYNCHRONIZATION原理
§6.1.1语音信号与声道模型基础
§6.1.2Lip Sync理论基础
§6.2口型几何描述参数和语音信号频谱描述参数
§6.3训练分析算法
§6.3.1训练算法流程
§6.3.2分析算法流程
§6.4试验结果
§6.5本章小结
第七章虚拟人面部制作系统实例-虚拟教师制作系统
§7.1系统结构,主要模块和工作流程
§7.1.1系统结构
§7.1.2模型制作子系统及其工作步骤
§7.1.3参数获取子系统及其工作步骤
§7.1.4人脸动画制作子系统及其工作步骤
§7.1.5主要数据结构描述
§7.2系统操作界面和使用方法
§7.2.1教师模型制作子系统
§7.2.2参数获取子系统
§7.2.3人脸动画制作子系统
§7.3试验结果
§7.4本章小结
第八章总结与展望
参考文献
致谢
攻读学位期间已完成和发表文章与研究工作
声明