首页> 外文会议>Asian Test Symposium >Activation function manipulation for fault tolerant feedforward neural networks
【24h】

Activation function manipulation for fault tolerant feedforward neural networks

机译:容错函数操纵用于容错的前馈神经网络

获取原文

摘要

We propose a learning algorithm to enhance the fault tolerance of feedforward neural networks (NNs for short) by manipulating the gradient of sigmoid activation function of the neuron. For the output layer, we employ the function with therelatively gentle gradient. For the hidden layer we steepen the gradient of function after convergence. The experimental results show that our NNs are superior to NNs trained with other algorithms employing fault injection and the calculation of relevance of each weight to the output error in fault tolerance, learning cycles and time. Besides our gradient manipulation never spoils the generalization ability.
机译:我们提出了一种学习算法,通过操纵神经元的Sigmoid激活功能的梯度来增强前馈神经网络的容错(短路。对于输出层,我们采用了具有温柔渐变的功能。对于隐藏的层,我们在收敛后陡峭的功能梯度。实验结果表明,我们的NNS优于NNS,其采用其他算法训练,采用故障注射和计算容错,学习周期和时间中的输出误差的每个权重的相关性。除了我们的渐变操纵,永远不会破坏泛化能力。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号