首页> 外文会议>統計関連学会連合大会 >ランダムニューラルネッ卜の近似下限評価
【24h】

ランダムニューラルネッ卜の近似下限評価

机译:测量随机神经网络的下限评估

获取原文

摘要

ランダムネットによる回帰問題の近似誤差を評価する。ランダムネットとは,隠れ層をランダム初期化した状態で固定し,出力層のみを最適化する方法で学習された浅いニューラルネットである。隠れ層の学習を省略することで,標準的な勾配降下学習では避けられない非凸最適化を回避できるため,理論と応用の両方で用いられる学習法である。本研究では,浅いニューラルネットワークが普遍関数近似器であるというよく知られた事実にもかかわらず、ランダムネットは広いクラスの関数に対して近似誤差をゼロにできないことを示す。さらに,ニューラルネットのための調和解析であるリッジレット解析(ridgelet analysis)を用いて,関数クラスの滑らかさsに対する近似下限を計算する。
机译:随机网络评估回归问题的近似误差。随机网络是通过在随机初始化状态下固定隐藏层并仅优化输出层来学习的浅神经网络。通过省略隐藏层的学习,它是一个在理论和应用中使用的学习方法,因为它可以避免在标准梯度下降学习中不可避免的非凸优化。在这项研究中,尽管浅神经网络是通用函数近似的事实,但随机网络表示近似误差对于广泛的功能而言不能为零。此外,使用脊形分析,这是针对神经网络的协调分析,计算了功能类的平滑度S的近似下限。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号