首页> 外文会议>Foundations and tools for neural modeling >SA-Prop: Optimization of Multilayer Perceptron Parameters Using Simulated Annealing
【24h】

SA-Prop: Optimization of Multilayer Perceptron Parameters Using Simulated Annealing

机译:SA-Prop:使用模拟退火优化多层感知器参数

获取原文
获取原文并翻译 | 示例

摘要

A general problem in model selection is to obtain the right parameters that make a model fit observed data. If the model selected is a Multilayer Perceptron (MLP) trained with Backpropagation (BP), it is necessary to find appropriate initial wights and learning parameters. This paper proposes a method that combines Simulated annealing (SinAnn) and BP to train MLPs with a single hidden layer, termed SA-Prop. SimAnn selects the initial weights and the learning rate of the network. SA-Prop combines the advantages of the stochastic search performed by the Simulated Annealing over the MLP parameter space and the local search ofthe BP algorithm.
机译:模型选择中的一个普遍问题是获得使模型适合观察数据的正确参数。如果选择的模型是经过反向传播(BP)训练的多层感知器(MLP),则必须找到合适的初始重量和学习参数。本文提出了一种方法,该方法结合了模拟退火(SinAnn)和BP训练带有单个隐藏层的MLP,称为SA-Prop。 SimAnn选择网络的初始权重和学习率。 SA-Prop结合了通过模拟退火在MLP参数空间上进行的随机搜索和BP算法的本地搜索的优势。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号