...
首页> 外文期刊>Karbala International Journal of Modern Science >L_p_ Approximation by ReLU Neural Networks
【24h】

L_p_ Approximation by ReLU Neural Networks

机译:relu神经网络近似的l_p_

获取原文
   

获取外文期刊封面封底 >>

       

摘要

We know that we can use the neural networks for the approximation of functions for many types of activation functions. Here, we treat only neural networks with simple and particular activation function called rectified linear units (ReLU). The main aim of this paper is to introduce a type of constructive universal approximation theorem and estimate the error of the universal approximation. We will obtain optimal approximation if we have a basis independent of the target function. We prove a type of Debao Chen's theorem for approximation.
机译:我们知道我们可以使用神经网络来逼近许多类型的激活功能的函数。 在这里,我们只用简单且特定的激活函数对待名为校正的线性单元(Relu)的神经网络。 本文的主要目的是介绍一种建设性通用近似定理,并估计普遍近似的误差。 如果我们与目标函数无关的基础,我们将获得最佳近似值。 我们证明了一种典型的近似定理。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号