首页> 外文期刊>Neural computation >Training a Single Sigmoidal Neuron Is Hard
【24h】

Training a Single Sigmoidal Neuron Is Hard

机译:训练单个乙状神经元很难

获取原文
获取原文并翻译 | 示例
       

摘要

We first present a brief survey of hardness results for training feed forward neural networks. These results are then completed by the proof that the simplest architecture containing only a single neuron that applies a sigmoidal activation function σ:K→ [α, β], satisfying certain natural axioms (e.g., the standard (logistic) sigmoid or saturated-linear function), to the weighted sum of n inputs is hard to train. In particular, the problem of finding the weights of such a unit that minimize the quadratic training error within (β—α)2 or its average (over a training set) within—5(β—α)2 /(12n) of its infimum proves to be NP-hard. Hence, the well-known backpropagation learning algorithm appears not to be efficient even for one neuron, which has negative consequences in constructive learning.
机译:我们首先对训练前馈神经网络的硬度结果进行简要概述。然后,通过证明最简单的架构仅包含一个应用了S型激活函数σ:K→[α,β]的单个神经元,并满足某些自然公理(例如标准(逻辑)S型或饱和线性)的证明,就可以完成这些结果。函数),很难训练n个输入的加权和。特别是找到这样一个单位的权重的问题,该单位的最小化(β-α)2内的二次训练误差或其在训练点的-5(β-α)2 //(12n)内的平均值(整个训练集)事实证明,这很难。因此,即使对于一个神经元,众所周知的反向传播学习算法似乎也不有效,这对建设性学习产生了负面影响。

著录项

  • 来源
    《Neural computation》 |2002年第11期|2709-2728|共20页
  • 作者

    Šíma J;

  • 作者单位

    Institute of Computer Science, Academy of Sciences of the Czech Republic, P.O. Box 5, 18207 Prague 8, Czech Republic, sima@cs.cas.cz;

  • 收录信息 美国《科学引文索引》(SCI);美国《化学文摘》(CA);
  • 原文格式 PDF
  • 正文语种 eng
  • 中图分类
  • 关键词

  • 入库时间 2022-08-18 02:11:23

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号