基于Transformer增强架构的中文语法纠错方法

摘要

语法纠错任务是自然语言处理领域的一项重要任务,近年来受到了广泛关注.该任务旨在自动识别并纠正文本中所包含的语法、拼写以及语序错误等.本文将语法纠错任务看作是翻译任务,即将带有错误表达的文本翻译成正确的文本,采用基于多头注意力机制的Transformer模型作为纠错模型并提出了一种动态残差结构,动态结合不同神经模块的输出来增强模型捕获语义信息的能力.受限于目前训练语料不足的情况,提出了一种数据增强方法,通过对单语语料的腐化从而生成更多的纠错数据,进一步提高模型的性能.实验结果表明,本文所提出的基于动态残差的模型增强以及腐化语料的数据增强方法对纠错性能有着较大的提升,在NLPCC2018中文语法纠错共享评测数据上达到了最优性能.

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号