【24h】

Chunking-based Chinese Word Tokenization

机译:基于分块的中文单词标记化

获取原文
获取原文并翻译 | 示例

摘要

This paper introduces a Chinese wordrntokenization system through HMM-basedrnchunking. Experiments show that such arnsystem can well deal with the unknown wordrnproblem in Chinese word tokenization.
机译:本文通过基于HMM的Chunchunking引入了中文单词词化系统。实验表明,这种神经系统可以很好地处理中文单词标记化中的未知单词问题。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号