首页> 外文OA文献 >Articulatory feature-based methods for acoustic and audio-visual speech recognition: Summary from the 2006 JHU Summer Workshop.
【2h】

Articulatory feature-based methods for acoustic and audio-visual speech recognition: Summary from the 2006 JHU Summer Workshop.

机译:基于听觉特征的声音和视听语音识别方法:2006 JHU Summer Workshop的摘要。

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

We report on investigations, conducted at the 2006 Johns HopkinsWorkshop, into the use of articulatory features (AFs) for observation and pronunciation models in speech recognition. In the area of observation modeling, we use the outputs of AF classiers both directly, in an extension of hybrid HMM/neural network models, and as part of the observation vector, an extension of the tandem approach. In the area of pronunciation modeling, we investigate a model having multiple streams of AF states with soft synchrony constraints, for both audio-only and audio-visual recognition. The models are implemented as dynamic Bayesian networks, and tested on tasks from the Small-Vocabulary Switchboard (SVitchboard) corpus and the CUAVE audio-visual digits corpus. Finally, we analyze AF classication and forced alignment using a newly collected set of feature-level manual transcriptions.
机译:我们报告了在2006年Johns HopkinsWorkshop上进行的有关在语音识别中将发音特征(AF)用于观察和发音模型的调查。在观察建模领域,我们在混合HMM /神经网络模型的扩展中直接使用了AF分类器的输出,在串联向量方法的扩展中,作为观察向量的一部分,我们直接使用了AF分类器的输出。在语音建模领域,我们研究了一种具有多个具有软同步约束的AF状态流的模型,用于纯音频和视听识别。这些模型被实现为动态贝叶斯网络,并在小型词汇总机(SVitchboard)语料库和CUAVE视听数字语料库的任务上进行了测试。最后,我们使用一组新收集的功能级别手动转录来分析AF经典化和强制对齐。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号