【24h】

Learning to Generate Wikipedia Summaries for Underserved Languages from Wikidata

机译:学习从Wikidata生成服务不足语言的Wikipedia摘要

获取原文

摘要

While Wikipedia exists in 287 languages, its content is unevenly distributed among them. In this work, we investigate the generation of open domain Wikipedia summaries in under-served languages using structured data from Wikidata. To this end, we propose a neural network architecture equipped with copy actions that learns to generate single-sentence and comprehensible textual summaries from Wikidata triples. We demonstrate the effectiveness of the proposed approach by evaluating it against a set of baselines on two languages of different natures: Arabic, a morphological rich language with a larger vocabulary than English, and Esperanto, a constructed language known for its easy acquisition.
机译:虽然维基百科存在于287种语言中,但其内容在其中不均匀地分布。在这项工作中,我们调查了使用Wikidata的结构化数据的非服务语言的开放式维基百科摘要的产生。为此,我们提出了一种具有复制操作的神经网络架构,该架构学习从Wikidata三元组生成单句和可辨别的文本摘要。我们通过对不同性质的两种语言评估了所提出的方法的有效性:阿拉伯语,一种具有比英语更大的词汇形态丰富的语言,以及Esperanto,一种已知的构建语言,可以轻松收购。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号