首页> 美国卫生研究院文献>The Journal of the Acoustical Society of America >Analysis of facial motion patterns during speech using a matrix factorization algorithm
【2h】

Analysis of facial motion patterns during speech using a matrix factorization algorithm

机译:使用矩阵分解算法分析语音中的面部运动模式

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

This paper presents an analysis of facial motion during speech to identify linearly independent kinematic regions. The data consists of three-dimensional displacement records of a set of markers located on a subject’s face while producing speech. A QR factorization with column pivoting algorithm selects a subset of markers with independent motion patterns. The subset is used as a basis to fit the motion of the other facial markers, which determines facial regions of influence of each of the linearly independent markers. Those regions constitute kinematic “eigenregions” whose combined motion produces the total motion of the face. Facial animations may be generated by driving the independent markers with collected displacement records.
机译:本文介绍了语音期间面部运动的分析,以识别线性独立的运动学区域。数据由在产生语音时位于对象面部的一组标记的三维位移记录组成。带有列透视的QR分解算法选择具有独立运动模式的标记子集。该子集用作适合其他面部标记的运动的基础,该其他面部标记确定每个线性独立标记的影响面部区域。这些区域构成了运动学的“本征区域”,这些运动的组合运动产生了面部的整体运动。可以通过驱动具有收集的位移记录的独立标记来生成面部动画。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号