首页> 外文期刊>Neurocomputing >A simple and efficient architecture for trainable activation functions
【24h】

A simple and efficient architecture for trainable activation functions

机译:简单有效的架构,可训练的激活功能

获取原文
获取原文并翻译 | 示例
       

摘要

Automatically learning the best activation function for the task is an active topic in neural network research. At the moment, despite promising results, it is still challenging to determine a method for learning an activation function that is, at the same time, theoretically simple and easy to implement. Moreover, most of the methods proposed so far introduce new parameters or adopt different learning techniques. In this work, we propose a simple method to obtain a trained activation function which adds to the neural network local sub-networks with a small number of neurons. Experiments show that this approach could lead to better results than using a pre-defined activation function, without introducing the need to learn a large number of additional parameters. (C) 2019 Elsevier B.V. All rights reserved.
机译:自动学习任务的最佳激活功能是神经网络研究中的一个活跃主题。目前,尽管取得了令人鼓舞的结果,但是确定一种学习激活函数的方法仍然具有挑战性,该方法在理论上既简单又易于实现。而且,迄今为止提出的大多数方法引入了新的参数或采用了不同的学习技术。在这项工作中,我们提出了一种简单的方法来获得经过训练的激活函数,该函数将具有少量神经元的局部子网添加到神经网络中。实验表明,与使用预定义的激活函数相比,此方法可带来更好的结果,而无需引入学习大量其他参数的需求。 (C)2019 Elsevier B.V.保留所有权利。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号