首页> 外文会议>Test Symposium, 1999. (ATS '99) Proceedings. Eighth Asian >Activation function manipulation for fault tolerant feedforward neural networks
【24h】

Activation function manipulation for fault tolerant feedforward neural networks

机译:容错前馈神经网络的激活函数操纵

获取原文

摘要

We propose a learning algorithm to enhance the fault tolerance of feedforward neural networks (NNs for short) by manipulating the gradient of sigmoid activation function of the neuron. For the output layer, we employ the function with the relatively gentle gradient. For the hidden layer we steepen the gradient of function after convergence. The experimental results show that our NNs are superior to NNs trained with other algorithms employing fault injection and the calculation of relevance of each weight to the output error in fault tolerance, learning cycles and time. The gradient manipulation never spoils the generalization ability.
机译:我们提出了一种通过操纵神经元的S型激活函数的梯度来提高前馈神经网络(简称NNs)的容错能力的学习算法。对于输出层,我们采用具有相对缓和梯度的函数。对于隐藏层,我们在收敛后使函数的梯度变陡。实验结果表明,我们的神经网络优于采用其他算法进行故障注入训练的神经网络,这些算法在容错,学习周期和时间方面都可以计算出各个权重与输出误差的相关性。梯度处理永远不会破坏泛化能力。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号