首页> 外文期刊>Neurocomputing >Minimizing memory loss in learning a new environment
【24h】

Minimizing memory loss in learning a new environment

机译:在学习新环境时最大程度地减少内存丢失

获取原文
获取原文并翻译 | 示例
       

摘要

Human and other living species can learn new concepts without losing the old ones. On the other hand, artificial neural networks tend to "forfet" old concepts. IN this paper, we present three methods to minimize the loss of the old information. These methods are analyzed and compared for the linear model. IN particular, a method called network sampling is shown to be optimal under certain condition on the sampled data distribution. We also show how to apply these methods in the enonlinear models.
机译:人类和其他生物可以学习新概念而不会失去旧概念。另一方面,人工神经网络倾向于“放弃”旧概念。在本文中,我们提出了三种方法来最大程度地减少旧信息的丢失。分析并比较了这些方法的线性模型。特别是,在某些情况下,对采样数据分布显示一种称为网络采样的方法是最佳的。我们还将展示如何在非线性模型中应用这些方法。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号