首页> 外文会议>German Conference on Pattern Recognition >Cross and Learn: Cross-Modal Self-supervision
【24h】

Cross and Learn: Cross-Modal Self-supervision

机译:交叉学习:跨模态自我监督

获取原文

摘要

In this paper we present a self-supervised method for representation learning utilizing two different modalities. Based on the observation that cross-modal information has a high semantic meaning we propose a method to effectively exploit this signal. For our approach we utilize video data since it is available on a large scale and provides easily accessible modalities given by RGB and optical flow. We demonstrate state-of-the-art performance on highly contested action recognition datasets in the context of self-supervised learning. We show that our feature representation also transfers to other tasks and conduct extensive ablation studies to validate our core contributions.
机译:在本文中,我们提出了一种利用两种不同模式进行自我学习的表示学习方法。基于交叉模式信息具有较高语义含义的观察,我们提出了一种有效利用此信号的方法。对于我们的方法,我们利用视频数据,因为它可以大规模使用,并提供由RGB和光流提供的易于访问的模态。在自我监督学习的背景下,我们展示了在竞争激烈的动作识别数据集上的最新性能。我们表明,我们的特征表示也可以转移到其他任务,并进行广泛的消融研究以验证我们的核心贡献。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号