首页> 外文期刊>Journal of visual communication & image representation >Attention-based contextual interaction asymmetric network for RGB-D saliency prediction
【24h】

Attention-based contextual interaction asymmetric network for RGB-D saliency prediction

机译:基于注意力的上下文交互不对称网络,用于RGB-D显着性预测

获取原文
获取原文并翻译 | 示例
           

摘要

Saliency prediction on RGB-D images is an underexplored and challenging task in computer vision. We propose a channel-wise attention and contextual interaction asymmetric network for RGB-D saliency prediction. In the proposed network, a common feature extractor provides cross-modal complementarity between the RGB image and corresponding depth map. In addition, we introduce a four-stream feature-interaction module that fully leverages multiscale and cross-modal features for extracting contextual information. Moreover, we propose a channel-wise attention module to highlight the feature representation of salient regions. Finally, we refine coarse maps through a corresponding refinement block. Experimental results show that the proposed network achieves a performance comparable with state-of-the-art saliency prediction methods on two representative datasets.
机译:RGB-D图像的显着性预测是计算机愿景中的一个过度缺乏和具有挑战性的任务。 我们提出了一种用于RGB-D显着性预测的通道 - 明智的关注和上下文交互不对称网络。 在所提出的网络中,公共特征提取器提供RGB图像和相应深度图之间的跨模型互补性。 此外,我们介绍了四流特征交互模块,可以完全利用多尺度和跨模板特征来提取上下文信息。 此外,我们提出了一种渠道明智的注意模块,以突出凸起区域的特征表示。 最后,我们通过相应的细化块优化粗地图。 实验结果表明,该网络达到了与两个代表数据集上的最先进的显着性预测方法相当的性能。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号