首页> 外文期刊>Image and Vision Computing >Towards a low bandwidth talking face using appearance models
【24h】

Towards a low bandwidth talking face using appearance models

机译:使用外观模型实现低带宽说话人脸

获取原文
获取原文并翻译 | 示例
       

摘要

This paper is motivated by the need to develop low bandwidth virtual humans capable of delivering audio-visual speech and sign language at a quality comparable to high bandwidth video. Using an appearance model combined with parameter compression significantly reduces the number of bits required for animating the face of a virtual human. A perceptual method is used to evaluate the quality of the synthesised sequences and it appears that 3.6 kb s~(-1) can yield acceptable quality.
机译:本文的动机是需要开发能够以与高带宽视频相当的质量提供视听语音和手语的低带宽虚拟人。将外观模型与参数压缩结合使用,可以大大减少为虚拟人的脸设置动画所需的位数。使用感知方法评估合成序列的质量,似乎3.6 kb s〜(-1)可以产生可接受的质量。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号