【24h】

BanditMTL: Bandit-based Multi-task Learning for Text Classification

机译:BANDITMTL:基于BANDIT的文本分类的多任务学习

获取原文

摘要

Task variance regularization, which can be used to improve the generalization of Multitask Learning (MTL) models, remains unexplored in multi-task text classification. Accordingly, to till this gap, this paper investigates how the task might be effectively regularized, and consequently proposes a multi-task learning method based on adversarial multi-armed bandit. The proposed method, named BanditMTL, regularizes the task variance by means of a mirror gradient ascent-descent algorithm. Adopting BanditMTL in the multitask text classification context is found to achieve state-of-the-art performance. The results of extensive experiments back up our theoretical analysis and validate the superiority of our proposals.
机译:任务方差正则规则化可用于改善多任务学习(MTL)模型的泛化,在多任务文本分类中仍未开发。 因此,为了实现这种差距,本文研究了如何有效规范的任务,从而提出了一种基于对抗性多武装强盗的多任务学习方法。 所提出的命名BanditMTL的方法,通过镜像梯度上升算法正规化任务方差。 发现在多任务文本分类上下文中采用BanditMTL来实现最先进的性能。 大量实验的结果备份了我们的理论分析并验证了我们提案的优势。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号