首页> 外文会议>2016 IEEE International Conference on Big Data Analysis >Robust feature selection via simultaneous capped ¿¿¿2-norm and ¿¿¿2,1-norm minimization
【24h】

Robust feature selection via simultaneous capped ¿¿¿2-norm and ¿¿¿2,1-norm minimization

机译:通过同时限制¿¿¿2-norm和¿¿¿¿2,1-norm最小化来进行可靠的特征选择

获取原文
获取原文并翻译 | 示例

摘要

High dimension is one of the key characters of big data. Feature selection plays a significant role in many machine learning applications dealing with high-dimensional data. To improve the robustness of feature selection, we propose a new robust feature selection method with emphasizing Simultaneous Capped ¿¿¿2-norm loss and ¿¿¿2, 1-norm regularizer Minimization (SCM). The capped ¿¿¿2-norm based loss function can effectively eliminate the influence of noise and outliers in regression and the ¿¿¿2, 1-norm regularization is used to select features across data sets with joint sparsity. Meanwhile, we propose an effective approach to solve the formulated minimization problem. Experimental studies on real-world data sets demonstrate the effectiveness of our method in comparison with other popular feature selection methods.
机译:高维是大数据的关键特征之一。在许多处理高维数据的机器学习应用程序中,特征选择发挥着重要作用。为了提高特征选择的鲁棒性,我们提出了一种新的鲁棒性特征选择方法,该方法强调了同时封顶的?? 2范数损失和?? 2,1范数正则化器最小化(SCM)。带帽的基于?? 2范数的损失函数可以有效消除回归中噪声和离群值的影响,使用?? 2?1范数正则化来选择具有联合稀疏性的数据集中的特征。同时,我们提出了一种有效的方法来解决公式化的最小化问题。对现实世界数据集的实验研究表明,与其他流行的特征选择方法相比,我们的方法是有效的。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号