【24h】

Stage-wise Fine-tuning for Graph-to-Text Generation

机译:用于图形到文本生成的阶段明智的微调

获取原文

摘要

Graph-to-text generation has benefited from pre-trained language models (PLMs) in achieving better performance than structured graph encoders. However, they fail to fully utilize the structure information of the input graph. In this paper, we aim to further improve the performance of the pre-trained language model by proposing a structured graph-to-text model with a two-step fine-tuning mechanism which first fine-tunes the model on Wikipedia before adapting to the graph-to-text generation. In addition to using the traditional token and position embeddings to encode the knowledge graph (KG), we propose a novel tree-level embedding method to capture the inter-dependency structures of the input graph. This new approach has significantly improved the performance of all text generation metrics for the English WebNLG 2017 dataset.
机译:图形到文本生成使得从预先接受的语言模型(PLMS)中受益于实现比结构化图形编码器更好的性能。 但是,它们未能充分利用输入图的结构信息。 在本文中,我们旨在通过提出具有两步微调机制的结构化图形到文本模型来进一步提高预先训练的语言模型的性能,这首先进行了对维基百科上的模型进行了微调 图形到文本生成。 除了使用传统的令牌和位置嵌入来编码知识图(kg),我们提出了一种新颖的树级嵌入方法来捕获输入图的依赖性结构。 这种新方法显着提高了英语WebNLG 2017数据集的所有文本生成度量的性能。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号