【24h】

BERT for Question Generation

机译:BERT用于问题生成

获取原文

摘要

In this study, we investigate the employment of the pre-trained BERT language model to tackle question generation tasks. We introduce two neural architectures built on top of BERT for question generation tasks. The first one is a straightforward BERT employment, which reveals the defects of directly using BERT for text generation. And, the second one remedies the first one by restructuring the BERT employment into a sequential manner for taking information from previous decoded results. Our models are trained and evaluated on the question-answering dataset SQuAD. Experiment results show that our best model yields state-of-the-art performance which advances the BLEU 4 score of existing best models from 16.85 to 21.04.
机译:在这项研究中,我们调查了使用预训练的BERT语言模型来解决问题生成任务的情况。我们介绍了两种基于BERT的神经体系结构,用于问题生成任务。第一个是直接使用BERT的方法,它揭示了直接使用BERT进行文本生成的缺陷。并且,第二种方法通过将BERT的使用结构重组为一种顺序的方法来纠正第一种方法,以从先前的解码结果中获取信息。我们的模型在问答数据集SQuAD上进行了训练和评估。实验结果表明,我们的最佳模型产生了最先进的性能,将现有最佳模型的BLEU 4得分从16.85提高到21.04。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号