首页> 外文会议>International Symposium on Neural Networks >An Improved Backpropagation Algorithm Using Absolute Error Function
【24h】

An Improved Backpropagation Algorithm Using Absolute Error Function

机译:使用绝对误差函数改进的BackProjagation算法

获取原文

摘要

An improved backpropagation algorithm is proposed by using the Lyapunov method to minimize the absolution error function. The improved algorithm can make both error and gradient approach zero so that the local minima problem can be avoided. In addition, since the absolute error function is used, this algorithm is more robust and faster for learning than the backpropagation with the traditional square error function when target signals include some incorrect data. This paper also proposes a method of using Lyapunov stability theory to derive a learning algorithm which directly minimize the absolute error function.
机译:通过使用Lyapunov方法提出了一种改进的BackPropagation算法,以最小化散射误差函数。改进的算法可以使误差和梯度接近零,从而可以避免局部最小值问题。另外,由于使用绝对误差功能,因此当目标信号包括某些不正确数据时,该算法比使用传统的方误差功能更强,更快地学习。本文还提出了一种使用Lyapunov稳定理论来推导出直接最小化绝对误差功能的学习算法的方法。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号