【24h】

Joint Dictionaries for Zero-Shot Learning

机译:零射击学习的联合词典

获取原文

摘要

A classic approach toward zero-shot learning (ZSL) is to map the input domain to a set of semantically meaningful attributes that could be used later on to classify unseen classes of data (e.g. visual data). In this paper, we propose to learn a visual feature dictionary that has semantically meaningful atoms. Such a dictionary is learned via joint dictionary learning for the visual domain and the attribute domain, while enforcing the same sparse coding for both dictionaries. Our novel attribute aware formulation provides an algorithmic solution to the domain shift/hubness problem in ZSL. Upon learning the joint dictionaries, images from unseen classes can be mapped into the attribute space by finding the attribute aware joint sparse representation using solely the visual data. We demonstrate that our approach provides superior or comparable performance to that of the state of the art on benchmark datasets.
机译:零拍摄学习(ZSL)的经典方法是将输入域映射到稍后可以使用的一组语义有意义的属性,以对逐个进行分类,以分类UNESEN类数据(例如,Visual Data)。 在本文中,我们建议学习具有语义有意义原子的可视化特征词典。 通过联合字典学习来学习用于视觉域和属性域,同时对两个词典执行相同的稀疏编码来学习这样的字典。 我们的新颖属性感知制定为ZSL中的域移位/毂性问题提供了一种算法解决方案。 在学习联合词典时,通过仅使用视觉数据的属性感知的关节稀疏表示,可以通过查找属性感知的关节稀疏表示来映射到属性空间。 我们证明我们的方法在基准数据集中提供了卓越的或可比性的性能。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号