首页> 外文期刊>Neurocomputing >Roles of pre-training in deep neural networks from information theoretical perspective
【24h】

Roles of pre-training in deep neural networks from information theoretical perspective

机译:信息论视角下的预训练在深度神经网络中的作用

获取原文
获取原文并翻译 | 示例
           

摘要

Although deep learning shows high performance in pattern recognition and machine learning, the reasons remain unclarified. To tackle this problem, we calculated the information theoretical variables of the representations in the hidden layers and analyzed their relationship to the performance. We found that entropy and mutual information, both of which decrease in a different way as the layer deepens, are related to the generalization errors after fine-tuning. This suggests that the information theoretical variables might be a criterion for determining the number of layers in deep learning without fine-tuning that requires high computational loads. (C) 2017 Elsevier B.V. All rights reserved.
机译:尽管深度学习在模式识别和机器学习中表现出很高的性能,但其原因尚不清楚。为了解决这个问题,我们计算了隐藏层中表示的信息理论变量,并分析了它们与性能的关系。我们发现,随着层的加深,熵和互信息都以不同的方式减小,它们与微调后的泛化误差有关。这表明信息理论变量可能是确定深度学习中的层数的标准,而无需进行微调,而这需要很高的计算量。 (C)2017 Elsevier B.V.保留所有权利。

著录项

  • 来源
    《Neurocomputing》 |2017年第26期|76-79|共4页
  • 作者单位

    Nara Inst Sci & Technol, Grad Sch Informat Sci, Ikoma, Nara 6300192, Japan;

    Nara Inst Sci & Technol, Grad Sch Informat Sci, Ikoma, Nara 6300192, Japan;

    Nara Inst Sci & Technol, Grad Sch Informat Sci, Ikoma, Nara 6300192, Japan;

  • 收录信息 美国《科学引文索引》(SCI);美国《工程索引》(EI);
  • 原文格式 PDF
  • 正文语种 eng
  • 中图分类
  • 关键词

    Deep neural networks; Pre-training; Information theory;

    机译:深度神经网络;预训练;信息论;

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号