首页> 外文期刊>JMLR: Workshop and Conference Proceedings >Reducing training time by efficient localized kernel regression
【24h】

Reducing training time by efficient localized kernel regression

机译:通过有效的局部核回归来减少训练时间

获取原文
       

摘要

We study generalization properties of kernel regularized least squares regression based on a partitioning approach. We show that optimal rates of convergence are preserved if the number of local sets grows sufficiently slowly with the sample size. Moreover, the partitioning approach can be efficiently combined with local Nystr?m subsampling, improving computational cost twofold.
机译:我们研究基于分区方法的核正则化最小二乘回归的一般化性质。我们显示,如果局部集的数量随着样本量的增长而足够缓慢地增长,则可以保持最佳收敛速度。此外,该分割方法可以与局部Nystr?m子采样有效地组合,从而将计算成本提高两倍。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号