An automated method of synchronizing facial animation to recorded speech is described. In this method, a common speech synthesis method (linear prediction) is adapted to provide simple and accurate phoneme recognition. The recognized phonemes are then associated with mouth positions to provide keyframes for computer animation of speech using a parametric model of the human face.
rnThe linear prediction software, once implemented, can also be used for speech resynthesis. The synthesis retains intelligibility and natural speech rhythm while achieving a "synthetic realism" consistent with computer animation. Speech synthesis also enables certain useful manipulations for the purpose of computer character animation.
描述了一种将面部动画与记录的语音同步的自动方法。在这种方法中,常用的语音合成方法(线性预测)适用于提供简单而准确的音素识别。然后,将识别出的音素与嘴巴位置相关联,以使用人脸的参数模型为语音计算机动画提供关键帧。 P> rn
线性预测软件一旦实现,也可以用于语音重新合成。该合成保留了清晰度和自然的语音节奏,同时实现了与计算机动画一致的“合成现实感”。语音合成还可以实现某些有用的操作,以实现计算机角色动画。 P>
Computer Graphics Laboratory, New York Institute of Technology;
机译:音频驱动的情感语音动画,用于交互式虚拟角色
机译:交互式虚拟字符的音频驱动的情感语音动画
机译:基于贪婪算法的快速自适应字符动画综合
机译:角色动画:使用数学方程式的3D角色自动步态周期
机译:表现 剥皮 方法 3D 角色动画
机译:Sasang类型学分析小企鹅波罗洛中的七个动画角色
机译:使用多模态语音产生数据评估用于视听语音合成的发音动画
机译:动画人物表达军事语音的有限域综合