首页> 外文会议>Workshop on Asian translation >Sarah's Participation in WAT 2019
【24h】

Sarah's Participation in WAT 2019

机译:莎拉(Sarah)参加WAT 2019

获取原文

摘要

This paper describes our MT systems" participation in the WAT 2019. We participated in the (ⅰ) Patent, (ⅱ) Timely Disclosure, (ⅲ) Newswire and (ⅳ) Mixed-domain tasks. Our main focus is to explore how similar Transformer models perform on various tasks. We observed that for tasks with smaller datasets, our best model setup are shallower models with lesser number of attention heads. We investigated practical issues in NMT that often appear in production settings, such as coping with multilinguality and simplifying pre- and post-processing pipeline in deployment.
机译:本文介绍了我们的MT系统在WAT 2019中的参与情况。我们参与了(ⅰ)专利,(ⅱ)及时披露,(ⅲ)Newswire和(ⅳ)混合域任务。我们的主要重点是探索类似Transformer的方式模型可以执行各种任务,我们发现,对于数据集较小的任务,我们最好的模型设置是较浅的模型,而关注头的数量较少;我们调查了NMT中经常出现在生产环境中的实际问题,例如应对多种语言并简化预-以及部署中的后处理管道。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号