【24h】

An Attentional Model for Speech Translation Without Transcription

机译:无转录语音翻译的注意模型

获取原文
获取外文期刊封面目录资料

摘要

For many low-resource languages, spoken language resources are more likely to be annotated with translations than transcriptions. This bilingual speech data can be used for word-spotting, spoken document retrieval, and even for documentation of endangered languages. We experiment with the neural, attentional model applied to this data. On phone-to-word alignment and translation reranking tasks, we achieve large improvements relative to several baselines. On the more challenging speech-to-word alignment task, our model nearly matches GIZA++'s performance on gold transcriptions, but without recourse to transcriptions or to a lexicon.
机译:对于许多资源匮乏的语言,口头语言资源更可能以翻译而不是转录来注释。这种双语语音数据可用于单词发现,语音文档检索,甚至用于濒危语言的文档。我们尝试将神经注意力模型应用于此数据。在电话到单词的对齐和翻译重新排序任务上,相对于几个基准,我们取得了很大的进步。在更具挑战性的语音到单词对齐任务上,我们的模型几乎与GIZA ++在黄金转录上的性能相匹配,但没有求助于转录或词典。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号