首页> 外文期刊>Information and inference >Size-independent sample complexity of neural networks
【24h】

Size-independent sample complexity of neural networks

机译:神经网络的尺寸无关样品复杂性

获取原文
获取原文并翻译 | 示例
获取外文期刊封面目录资料

摘要

We study the sample complexity of learning neural networks by providing new bounds on their Rademacher complexity, assuming norm constraints on the parameter matrix of each layer. Compared to previous work, these complexity bounds have improved dependence on the network depth and, under some additional assumptions, are fully independent of the network size (both depth and width). These results are derived using some novel techniques, which may be of independent interest.
机译:我们通过在每一层的参数矩阵上具有规范限制来研究学习神经网络的样本复杂性。 与以前的工作相比,这些复杂性界限改善了对网络深度的依赖性,并且在一些其他假设下,完全独立于网络大小(深度和宽度)。 这些结果是使用一些新型技术得出的,这些技术可能具有独立的兴趣。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号