机译:固定扩展层网络中的集合学习,可减轻灾难性遗忘
Department of Electrical Engineering and Computer Science, University of Tennessee, Knoxville, TN, USA|c|;
Catastrophic forgetting; nonstationary inputs; sparse encoding neural networks;
机译:用于多层神经网络的伪演练的对比性Hebbian学习在减少灾难性遗忘方面的特点
机译:增强网络模块化以缓解灾难性遗忘
机译:人工神经网络中的自我刷新记忆:学习时间序列而不会造成灾难性的遗忘
机译:使用固定扩展层缓解循环神经网络中的灾难性遗忘
机译:没有灾难性遗忘的增量学习
机译:PEnBayes:一种用于从大数据中学习贝叶斯网络结构的多层集成方法
机译:使用固定扩展层减轻回归神经网络中的灾难性遗忘