首页> 外文期刊>WSEAS Transactions on Signal Processing >Bound the Learning Rates with Generalized Gradients
【24h】

Bound the Learning Rates with Generalized Gradients

机译:用广义梯度约束学习率

获取原文
获取原文并翻译 | 示例
       

摘要

This paper considers the error bounds for the coefficient regularized regression schemes associated with Lipschitz loss. Our main goal is to study the convergence rates for this algorithm with non-smooth analysis. We give an explicit expression of the solution with generalized gradients of the loss which induces a capacity independent bound for the sample error. A kind of approximation error is provided with possibility theory.
机译:本文考虑了与Lipschitz损失相关的系数正则回归方案的误差范围。我们的主要目标是通过非平滑分析来研究该算法的收敛速度。我们用损失的广义梯度给出了解决方案的显式表达式,该梯度引起了样本误差的独立于容量的界限。可能性理论提供了一种近似误差。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号