...
首页> 外文期刊>Neural computation >Learning to Forget: Continual Prediction with LSTM
【24h】

Learning to Forget: Continual Prediction with LSTM

机译:学会忘记:LSTM的连续预测

获取原文
获取原文并翻译 | 示例
   

获取外文期刊封面封底 >>

       

摘要

Long short-term memory (LSTM; Hochreiter & Schmidhuber, 1997) can solve numerous tasks not solvable by previous learning algorithms for recurrent neural networks (RNNs). We identify a weakness of LSTM net- works processing continual input streams that are not a priori segmented into subsequences with explicitly marked ends at which the network's in- ternal state could be reset.
机译:长短期记忆(LSTM; Hochreiter&Schmidhuber,1997)可以解决以前的递归神经网络(RNN)学习算法无法解决的许多任务。我们发现LSTM网络处理连续输入流的弱点,该连续输入流不是先验划分成具有明确标记端的子序列的,可以在该子序列处重置网络的内部状态。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号