【24h】

A Single Layer Perceptron Approach to Selective Multi-task Learning

机译:选择性多任务学习的单层感知器方法

获取原文
获取原文并翻译 | 示例

摘要

A formal definition of task relatedness to theoretically justify multi-task learning (MTL) improvements has remained quite elusive. The implementation of MTL using multi-layer perceptron (MLP) neural networks evoked the notion of related tasks sharing an underlying representation. This assumption of relatedness can sometimes hurt the training process if tasks are not truly related in that way. In this paper we present a novel single-layer perceptron (SLP) approach to selectively achieve knowledge transfer in a multi-tasking scenario by using a different notion of task relatedness. The experimental results show that the proposed scheme largely outperforms single-task learning (STL) using single layer perceptrons, working in a robust way even when not closely related tasks are present.
机译:任务相关性的正式定义从理论上讲证明了多任务学习(MTL)改进的合理性,仍然很难实现。使用多层感知器(MLP)神经网络的MTL的实现唤起了相关任务共享底层表示的概念。如果任务不是以这种方式真正相关,则这种相关性假设有时会损害培训过程。在本文中,我们提出了一种新颖的单层感知器(SLP)方法,通过使用不同的任务相关性概念来选择性地在多任务方案中实现知识转移。实验结果表明,所提出的方案在很大程度上优于使用单层感知器的单任务学习(STL),即使在没有紧密相关任务的情况下也能以健壮的方式工作。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号