首页> 外文会议>Annual American Control Conference >Towards Scalable Koopman Operator Learning: Convergence Rates and A Distributed Learning Algorithm
【24h】

Towards Scalable Koopman Operator Learning: Convergence Rates and A Distributed Learning Algorithm

机译:迈向可扩展的库普曼算子学习:收敛速度和分布式学习算法

获取原文

摘要

We propose an alternating optimization algorithm to the nonconvex Koopman operator learning problem for nonlinear dynamic systems. We show that the proposed algorithm will converge to a critical point with rate O(1/T) and $Oleft( {rac{1}{{log T}}} i
机译:针对非线性动态系统的非凸Koopman算子学习问题,我们提出了一种交替优化算法。我们表明,所提出的算法将收敛到速率为O(1 / T)和$ O \ left({\ frac {1} {{\ log T}}} \ ri的临界点

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号