【24h】

Learning to Generate Wikipedia Summaries for Underserved Languages from Wikidata

机译:学习从Wikidata生成Wikipedia摘要,以获得Wikidata的服务不足

获取原文
获取外文期刊封面目录资料

摘要

While Wikipedia exists in 287 languages, its content is unevenly distributed among them. In this work, we investigate the generation of open domain Wikipedia summaries in under-served languages using structured data from Wikidata. To this end, we propose a neural network architecture equipped with copy actions that learns to generate single-sentence and comprehensible textual summaries from Wikidata triples. We demonstrate the effectiveness of the proposed approach by evaluating it against a set of baselines on two languages of different natures: Arabic, a morphological rich language with a larger vocabulary than English, and Esperanto, a constructed language known for its easy acquisition.
机译:虽然维基百科存在于287种语言中,但其内容在其中不均匀地分布。在这项工作中,我们调查了使用Wikidata的结构化数据的非服务语言的开放式维基百科摘要的产生。为此,我们提出了一种具有复制操作的神经网络架构,该架构学习从Wikidata三元组生成单句和可辨别的文本摘要。我们通过对不同性质的两种语言评估了所提出的方法的有效性:阿拉伯语,一种具有比英语更大的词汇形态丰富的语言,以及Esperanto,一种已知的构建语言,可以轻松收购。

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号