首页> 外文会议>Annual meeting of the Association for Computational Linguistics >Large-Scale Transfer Learning for Natural Language Generation
【24h】

Large-Scale Transfer Learning for Natural Language Generation

机译:用于自然语言生成的大规模迁移学习

获取原文

摘要

Large-scale pretrained language models define state of the art in natural language processing, achieving outstanding performance on a variety of tasks. We study how these architectures can be applied and adapted for natural language generation, comparing a number of architectural and training schemes. We focus in particular on open-domain dialog as a typical high entropy generation task, presenting and comparing different architectures for adapting pretrained models with state of the art results.
机译:大规模的预训练语言模型定义了自然语言处理的最新技术,可在各种任务上实现出色的性能。我们比较了许多架构和培训方案,研究了如何将这些架构应用于自然语言生成并进行调整。我们特别关注开放域对话,这是典型的高熵生成任务,展示和比较不同的体系结构,以使预训练的模型适应最新的技术成果。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号