【24h】

Reducing SVR Support Vectors by Using Backward Deletion

机译:通过使用后向删除减少SVR支持向量

获取原文

摘要

Support Vector Regression (SVR) is one of the most famous sparse kernel machines which inherits many advantages of Support Vector Machines (SVM). However, since the number of support vectors grows rapidly with the increase of training samples, sparseness of the SVR is sometimes insufficient. In this paper, we propose two methods which reduce the SVR support vectors using backward deletion. Experiments show our method can dramatically reduce the number of support vectors without sacrificing the generalization performance.
机译:支持向量回归(SVR)是最着名的稀疏内核机之一,其继承了支持向量机(SVM)的许多优点。然而,由于支撑率的数量随着训练样本的增加而迅速增长,因此SVR的稀疏有时是不充分的。在本文中,我们提出了两种方法,其使用向后删除减少SVR支持向量。实验表明我们的方法可以大大减少支持向量的数量,而不会牺牲泛化性能。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号