...
首页> 外文期刊>Information Sciences: An International Journal >THE GENERALIZED SIGMOID ACTIVATION FUNCTION - COMPETITIVE SUPERVISED LEARNING
【24h】

THE GENERALIZED SIGMOID ACTIVATION FUNCTION - COMPETITIVE SUPERVISED LEARNING

机译:广义SIGMOID激活函数-竞争监督学习

获取原文
获取原文并翻译 | 示例
   

获取外文期刊封面封底 >>

       

摘要

Multilayer perceptron (MLP) networks trained using backpropagation are perhaps the most commonly used neural network model. Central to the MLP model is the use of neurons with nonlinear and differentiable activation functions. The most commonly used activation function is a sigmoidal function, and frequently all neurons in an MLP network employ the same activation function. In this paper, we introduce the notion of the generalized sigmoid as an activation function for neurons in the output layer of an MLP network. The enhancements afforded by the use of the generalized sigmoid are analyzed and demonstrated in the context of some well-known classification problems. (C) Elsevier Science Inc. 1997. [References: 10]
机译:使用反向传播训练的多层感知器(MLP)网络可能是最常用的神经网络模型。 MLP模型的核心是使用具有非线性和微分激活功能的神经元。最常用的激活函数是S形函数,MLP网络中的所有神经元通常都使用相同的激活函数。在本文中,我们介绍了广义乙状结肠的概念,作为MLP网络输出层中神经元的激活函数。在一些众所周知的分类问题的背景下,分析并证明了使用广义乙状结肠所提供的增强功能。 (C)Elsevier Science Inc.1997。[参考:10]

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号