首页> 外文会议> >A Chinese word dividing algorithm based on statistical language models
【24h】

A Chinese word dividing algorithm based on statistical language models

机译:基于统计语言模型的中文分词算法

获取原文

摘要

In Chinese speech processing, word dividing still remains a challenging problem, but it is one of the key problems for Chinese speech understanding, text-to-speech (TTS) systems and vocoders based on speech recognition and synthesis (SRSB vocoders). This paper proposes a word dividing algorithm based on statistical language models and Markov chain theory, which find the optimal word dividing solution without making use of grammatical and semantic knowledge.
机译:在中文语音处理中,分词仍然是一个具有挑战性的问题,但这是中文语音理解,文本到语音(TTS)系统和基于语音识别和合成的声码器(SRSB声码器)的关键问题之一。提出了一种基于统计语言模型和马尔可夫链理论的分词算法,该算法在不利用语法和语义知识的前提下,找到了最优的分词解决方案。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号