首页> 外文学位 >Optimization problems arising in stability analysis of discrete time recurrent neural networks.
【24h】

Optimization problems arising in stability analysis of discrete time recurrent neural networks.

机译:离散时间递归神经网络稳定性分析中出现的优化问题。

获取原文
获取原文并翻译 | 示例

摘要

We consider the method of Reduction of Dissipativity Domain to prove global Lyapunov stability of Discrete Time Recurrent Neural Networks. The standard and advanced criteria for Absolute Stability of these essentially nonlinear systems produce rather weak results. The method mentioned above is proved to be more powerful. It involves a multi-step procedure with maximization of special nonconvex functions over polytopes on every step. We derive conditions which guarantee an existence of at most one point of local maximum for such functions over every hyperplane. This nontrivial result is valid for wide range of neuron transfer functions.
机译:我们考虑了降低耗散域的方法,以证明离散时间递归神经网络的全局Lyapunov稳定性。这些基本非线性系统的绝对稳定性的标准和高级标准产生的结果很弱。事实证明,上述方法更为有效。它涉及一个多步骤过程,每个步骤上的多凸面上的特殊非凸函数最大化。我们得出条件,这些条件可保证每个超平面上此类函数的局部最大值不超过一个点。这个非同寻常的结果适用于广泛的神经元传递函数。

著录项

  • 作者

    Singh, Jayant.;

  • 作者单位

    North Dakota State University.;

  • 授予单位 North Dakota State University.;
  • 学科 Mathematics.
  • 学位 Ph.D.
  • 年度 2016
  • 页码 74 p.
  • 总页数 74
  • 原文格式 PDF
  • 正文语种 eng
  • 中图分类
  • 关键词

  • 入库时间 2022-08-17 11:47:44

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号