首页> 外文会议>Workshop on Domain Adaptation for NLP >The impact of domain-specific representations on BERT-based multi-domain spoken language understanding
【24h】

The impact of domain-specific representations on BERT-based multi-domain spoken language understanding

机译:域特定表示对基于BERT的多域口语语言理解的影响

获取原文

摘要

This paper provides the first experimental study on the impact of using domain-specific representations on a BERT-based multi-task spoken language understanding (SLU) model for multi-domain applications. Our results on a real-world dataset covering three languages indicate that by using domain-specific representations learned adversarially, model performance can be improved across all of the three SLU subtasks domain classification, intent classification and slot filling. Gains are particularly large for domains with limited training data.
机译:本文提供了对使用域特定表示对多域应用程序的伯特类多任务语言理解(SLU)模型的影响的第一个试验研究。 我们的结果在覆盖三种语言的真实数据集上表明,通过使用域特定的表示,通过对来自域的域进行的,可以在所有三个SLU子任务域分类,意图分类和插槽填充中提高模型性能。 对于具有有限培训数据的域来说,收益特别大。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号