首页> 外文会议>International Symposium on Electronics and Telecommunications >TeLU: A New Activation Function for Deep Learning
【24h】

TeLU: A New Activation Function for Deep Learning

机译:TELU:深度学习的新激活函数

获取原文

摘要

In this paper we proposed two novel activation functions, which we called them TeLU and TeLU learnable. These proposals are a combination of ReLU (Rectified Linear Unit), tangent(tanh), and ELU (Exponential Linear Units) without and with a learnable parameter. We prove that the activation functions TeLU and TeLU learnable give better results than other popular activation functions, including ReLU, Mish, TanhExp, using current architectures tested on Computer Vision datasets.
机译:在本文中,我们提出了两种新的激活函数,我们称之为Telu和Telu学习。这些提案是Relu(整流线性单元),切线(TanH)和ELU(指数线性单元)的组合而没有和学习参数。我们证明了激活函数Telu和Telu学习的效果比其他流行的激活功能提供更好的结果,包括Relu,Mish,Tanhexp,使用在计算机视觉数据集上测试的当前体系结构。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号