【24h】

Sparse One Hidden Layer MLPs

机译:稀疏一层隐藏MLP

获取原文

摘要

We discuss how to build sparse one hidden layer MLP replacing the standard l_2 weight decay penalty on all weights by an l_1 penalty on the linear output weights. We will propose an iterative two step training procedure where the output weights are found using FISTA proximal optimization algorithm to solve a Lasso-like problem and the hidden weights are computed by unconstrained minimization. As we shall discuss, the procedure has a complexity equivalent to that of standard MLP training, yields MLPs with similar performance and, as a by product, automatically selects the number of hidden units.
机译:我们讨论了如何构建稀疏的一个隐藏层MLP,以线性输出权重上的l_1代价代替所有权重上的标准l_2权重衰减惩罚。我们将提出一个迭代的两步训练程序,其中使用FISTA近端优化算法找到输出权重以解决类似套索的问题,并通过无约束最小化来计算隐藏权重。正如我们将要讨论的那样,该过程的复杂度与标准MLP训练的复杂度相同,可以产生性能相似的MLP,并且作为副产品,可以自动选择隐藏单元的数量。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号