声明
摘要
第1章 绪论
1.1 研究背景及意义
1.2 国内外研究现状
1.2.1 三维人脸建模
1.2.2 语音可视化建模
1.2.3 语音同步人脸动画技术
1.3 研究目标及内容
1.3.1 研究目标
1.3.2 研究内容
1.4 本文组织结构
第2章 三维人脸建模
2.1 人脸解剖学基础
2.1.1 口腔解剖学
2.1.2 人脸面部肌肉
2.2 三维人脸建模
2.2.1 Candide-3人脸模型
2.2.2 三维人脸肌肉模型
2.2.3 三维人脸肌肉配置
2.2.4 下颚运动轨迹分析模型
2.3 本章小结
第3章 协同发音建模
3.1 语音口型匹配机理
3.2 中文可视化音素数据映射
3.3 协同发音算法
3.4 本章小结
第4章 三维人脸语音同步动画的实现
4.1 语音合成技术
4.1.1 Microsoft Speech SDK简介
4.1.2 TTS引擎简介
4.2 中文文本分析
4.3 中文可视音素的获取
4.4 语音同步与插值处理
4.5 本章小结
第5章 实验结果与效果评估
5.1 三维人脸语音动画系统的框架与组成
5.2 评估方法
5.2.1 主观评估法
5.2.2 客观评估法
5.3 实验结果评测分析
5.3.1 合成动画效果主观评测
5.3.2 协同发音模型的主客观评价
5.4 本章小结
结论
致谢
参考文献
攻读硕士学位期间发表的论文及科研成果