机译:双整流线性单位(DReLU):替代准递归神经网络中的tanh激活函数
Univ Ghent, Ctr Biotech Data Sci, Global Campus, Incheon, South Korea;
Univ Ghent, IDLab, ELIS, Imec, Ghent, Belgium;
Activation functions; ReLU; Dual Rectified Linear Unit; Recurrent Neural Networks; Language modeling;
机译:使用具有类似于整流线性单位函数的激活函数的区域函数网络进行函数逼近
机译:具有整流线性单位激活的多层神经网络的解决方法和容量的性质
机译:深度神经网络与整流电量单元的更好近似尺寸
机译:具有重步激活函数的单层双递归神经网络用于线性规划及其线性分配应用
机译:基于正交激活函数的神经网络,用于非线性系统的自适应控制。
机译:静态状态MRI中使用广义径向基函数神经网络进行非线性功能连接网络恢复的互连接分析(MCA)
机译:双重整流线性单元(DReLU):Tanh激活的替代品 准递归神经网络中的函数