首页> 中文期刊> 《智能计算机与应用》 >面向图像语义分割任务的多级注意力蒸馏学习

面向图像语义分割任务的多级注意力蒸馏学习

         

摘要

传统的蒸馏学习仅通过大网络对轻量网络进行单向蒸馏,不但难以从轻量网络的学习状态中得到反馈信息,对训练过程进行优化调整,同时还会限制轻量网络的特征表达能力。本文提出结合自身多级注意力上下文信息进行自我学习优化的方法(MAD,Multi Attention Distillation),以自监督的方式使自身成熟的部分约束不成熟部分,即浅层可以从深层中提取有用的上下文信息,让浅层特征学习高层特征的表达,从而提升网络的整体表达能力。使用轻量级网络ERFNet、DeepLabV3在两个不同任务的数据集CULane、VOC上进行验证。实验结果表明,MAD可以在不增加推理时间的前提下,提升网络的特征提取能力,使ERFNet在CULane任务的F1-measure指标提升2.13,DeepLabV3在VOC任务的mIoU指标提升1.5。

著录项

  • 来源
    《智能计算机与应用》 |2021年第5期|P.13-1825|共7页
  • 作者

    刘佳琦; 杨璐; 王龙志;

  • 作者单位

    天津理工大学天津市先进机电系统设计与智能控制重点实验室 天津300384天津理工大学机电工程国家级实验教学示范中心 天津300384;

    天津理工大学天津市先进机电系统设计与智能控制重点实验室 天津300384天津理工大学机电工程国家级实验教学示范中心 天津300384;

    奥特贝睿(天津)科技有限公司 天津300300;

  • 原文格式 PDF
  • 正文语种 chi
  • 中图分类 TP391.41;
  • 关键词

    蒸馏学习; 语义分割; 注意力; 卷积神经网络;

相似文献

  • 中文文献
  • 外文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号