首页> 外文期刊>IEICE Transactions on Information and Systems >A Learning Algorithm with Activation Function Manipulation for Fault Tolerant Neural Networks
【24h】

A Learning Algorithm with Activation Function Manipulation for Fault Tolerant Neural Networks

机译:容错神经网络中带有激活函数操纵的学习算法

获取原文
获取原文并翻译 | 示例
       

摘要

In this paper we propose a learning algorithm to enhance the fault tolerance of feedforward neural networks (NNs for short) by manipulating the gradient of sigmoid activation function of the neuron. We assume stuck-at-0 and stuck-at-1 faults of the connec- tion link. For the output layer, we employ the function with the rela- tively gentle gradient to enhance its fault tolerance. For enhancing the fault tolerance of hidden layer, we steepen the gradient of function af- ter convergence.
机译:在本文中,我们提出了一种通过操纵神经元的S型激活函数的梯度来提高前馈神经网络(简称NN)的容错能力的学习算法。我们假设连接链路发生卡在0和卡在1的故障。对于输出层,我们使用具有相对缓和梯度的功能来增强其容错能力。为了提高隐藏层的容错能力,我们在收敛后使函数的梯度变陡。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号