首页> 外文期刊>Journal of machine learning research >On Relevant Dimensions in Kernel Feature Spaces
【24h】

On Relevant Dimensions in Kernel Feature Spaces

机译:内核特征空间中的相关维

获取原文
           

摘要

We show that the relevant information of a supervised learning problemis contained up to negligible error in a finite number of leadingkernel PCA components if the kernel matches the underlying learningproblem in the sense that it can asymptotically represent the functionto be learned and is sufficiently smooth. Thus, kernels do not onlytransform data sets such that good generalization can be achievedusing only linear discriminant functions, but this transformation isalso performed in a manner which makes economical use of feature spacedimensions. In the best case, kernels provide efficient implicitrepresentations of the data for supervised learning problems.Practically, we propose an algorithm which enables us to recover thenumber of leading kernel PCA components relevant for goodclassification. Our algorithm can therefore be applied (1) to analyzethe interplay of data set and kernel in a geometric fashion, (2) toaid in model selection, and (3) to denoise in feature space in orderto yield better classification results. color="gray">
机译:我们证明,如果内核与基础学习问题相匹配,则监督学习问题的相关信息将在有限数量的领先PCA组件中包含微不足道的错误,因为它可以渐近地表示要学习的功能并且足够平滑。因此,内核不仅变换数据集,使得仅使用线性判别函数就可以实现良好的概括,而且还以经济地使用特征空间维度的方式执行了这种变换。在最佳情况下,内核为监督学习问题提供了有效的数据隐式表示。实际上,我们提出了一种算法,使我们能够恢复与良好分类相关的主要内核PCA组件的数量。因此,我们的算法可以应用(1)以几何方式分析数据集和内核的相互作用,(2)协助模型选择,以及(3)在特征空间中进行去噪以产生更好的分类结果。 “灰色”>

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号