...
首页> 外文期刊>Mathematical Methods in the Applied Sciences >A note on the expressive power of deep rectified linear unit networks in high-dimensional spaces
【24h】

A note on the expressive power of deep rectified linear unit networks in high-dimensional spaces

机译:关于高维空间深处整流线性单元网络的表现力的说明

获取原文
获取原文并翻译 | 示例
           

摘要

We investigate the ability of deep deep rectified linear unit (ReLU) networks to approximate multivariate functions. Specially, we establish the approximation error estimate on a class of bandlimited functions; in this case, ReLU networks can overcome the "curse of dimensionality."
机译:我们调查深深整顿线性单元(Relu)网络到近似多变量功能的能力。 特别是,我们建立了一类带状函数的近似误差; 在这种情况下,Relu网络可以克服“维度的诅咒”。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号