首页> 外文期刊>Machine Learning >Efficient SVM Regression Training with SMO
【24h】

Efficient SVM Regression Training with SMO

机译:使用SMO进行有效的SVM回归培训

获取原文
获取原文并翻译 | 示例

摘要

The sequential minimal optimization algorithm (SMO) has been shown to be an effective method for training support vector machines (SVMs) on classification tasks defined on sparse data sets. SMO differs from most SVM algorithms in that it does not require a quadratic programming solver, In this work, we generalize SMO so that it can handle regression problems. However, one problem with SMO is that its rate of convergence slows down dramtically when data is non-sparse and when there are many support vectors in the solution-as is often the case in regression-because kernel function evaluations tend to dominate the runtime in this case.
机译:连续最小优化算法(SMO)已被证明是一种训练支持向量机(SVM)进行稀疏数据集定义的分类任务的有效方法。 SMO与大多数SVM算法的不同之处在于,它不需要二次编程求解器。在本文中,我们对SMO进行了概括,以便它可以处理回归问题。但是,SMO的一个问题是,当数据稀疏且解决方案中有很多支持向量时,其收敛速度会急剧降低(这在回归中通常是这种情况),因为内核函数评估往往会主导运行时。这个案例。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号