首页> 外文会议>Annual conference on Neural Information Processing Systems >Optimal learning rates for least squares SVMs using Gaussian kernels
【24h】

Optimal learning rates for least squares SVMs using Gaussian kernels

机译:最佳学习率,最小二乘SVMS使用高斯内核

获取原文

摘要

We prove a new oracle inequality for support vector machines with Gaussian RBF kernels solving the regularized least squares regression problem. To this end, we apply the modulus of smoothness. With the help of the new oracle inequality we then derive learning rates that can also be achieved by a simple data-dependent parameter selection method. Finally, it turns out that our learning rates are asymptotically optimal for regression functions satisfying certain standard smoothness conditions.
机译:我们证明了具有高斯RBF内核的支持向量机的新Oracle不等式,解决了正规化的最小二乘回归问题。为此,我们应用平滑模量。在新的Oracle不等式的帮助下,我们将通过简单的数据相关参数选择方法获得学习率,这些速率也可以实现。最后,事实证明,我们的学习率是满足某些标准平滑度条件的回归函数的渐近最佳。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号