首页> 外文期刊>Revue d'Intelligence Artificielle >Universal Consistency and Bloat in GP. Some theoretical considerations about Genetic Programming from a Statistical Learning Theory viewpoint
【24h】

Universal Consistency and Bloat in GP. Some theoretical considerations about Genetic Programming from a Statistical Learning Theory viewpoint

机译:GP中的普遍一致性和膨胀。从统计学习理论的角度对遗传规划的一些理论思考

获取原文
获取原文并翻译 | 示例
       

摘要

Dans cet article, nous proposons une étude de la Programmation Génétique (PG) du point de vue de la théorie de l'Apprentissage 'Statistique dans le cadre de la régression symbolique. En particulier, nous nous sommes intéressés à la consistence universelle en PG, c'est-à-dire la convergence presque sûre vers l'erreur bayésienne à mesure que le nombre d'exemples augmente, ainsi qu 'au problème bien connu en PG de la croissance incontrôlée de la taille du code (i.e. le "bloat"). Les résultats que nous avons obtenus montrent d'une part que l'on peut identifier plusieurs types de bloat et d'autre part que la consistence universelle et l'absence de bloat peuvent être obtenues sous certaines conditions. Nous proposons finalement une méthode ad hoc évitant justement le bloat tout en garantissant la consistence universelle.%In this paper, we provide an analysis of Genetic Programming (GP) from the Statistical Learning Theory viewpoint in the scope of symbolic regression. Firstly, we are interested in Universal Consistency, i.e. the fact that the solution minimizing the empirical error does converge to the best possible error when the number of examples goes to infinity, and secondly, we focus our attention on the uncontrolled growth of program length (i.e. bloat), which is a well-known problem in GP. Results show that (1) several kinds of code bloats may be identified and that (2) Universal consistency can be obtained as well as avoiding bloat under some conditions. We conclude by describing an ad hoc method that makes it possible simultaneously to avoid bloat and to ensure universal consistency.
机译:在本文中,我们从符号回归框架下的统计学习理论的角度提出了遗传编程(PG)的研究。尤其是,我们对PG中的通用一致性感兴趣,也就是说,随着示例数量的增加,几乎肯定会朝贝叶斯误差收敛,以及对PG中众所周知的问题感兴趣。代码大小不受控制的增长(即“膨胀”)。我们获得的结果一方面表明我们可以识别几种类型的膨胀,另一方面可以在某些条件下获得通用的一致性和不存在膨胀。最后,我们提出了一种在保证通用一致性的同时精确避免膨胀的临时方法。%本文从统计学习理论的角度,在符号回归的范围内,对遗传编程(GP)进行了分析。首先,我们对通用一致性很感兴趣,也就是说,当示例数达到无穷大时,将经验误差最小化的解决方案确实会收敛到可能的最佳误差,其次,我们将注意力集中在程序长度的不受控制的增长上(即膨胀),这是GP中众所周知的问题。结果表明:(1)可以识别出几种代码膨胀,并且(2)在某些情况下可以获得通用的一致性并避免膨胀。最后,我们通过描述一种临时方法来使同时避免膨胀和确保通用一致性成为可能。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号