首页> 外文OA文献 >Designing Regularizers and Architectures for Recurrent Neural Networks
【2h】

Designing Regularizers and Architectures for Recurrent Neural Networks

机译:为循环神经网络设计正则器和体系结构

摘要

Cette thèse contribue a la recherche vers l'intelligence artificielle en utilisant des méthodes connexionnistes.Les réseaux de neurones récurrents sont un ensemble de modèles séquentiels de plus en plus populaires capable en principe d'apprendre des algorithmes arbitraires.Ces modèles effectuent un apprentissage en profondeur, un type d'apprentissage machine.Sa généralité et son succès empirique en font un sujet intéressant pour la recherche et un outil prometteur pour la création de l'intelligence artificielle plus générale.Le premier chapitre de cette thèse donne un bref aperçu des sujets de fonds:l'intelligence artificielle, l'apprentissage machine, l'apprentissage en profondeur et les réseaux de neurones récurrents.Les trois chapitres suivants couvrent ces sujets de manière de plus en plus spécifiques.Enfin, nous présentons quelques contributions apportées aux réseaux de neurones récurrents.Le chapitre ef{arxiv1} présente nos travaux de régularisation des réseaux de neurones récurrents.La régularisation vise à améliorer la capacité de généralisation du modèle, et joue un role clé dans la performance de plusieurs applications des réseaux de neurones récurrents, en particulier en reconnaissance vocale.Notre approche donne l'état de l'art sur TIMIT, un benchmark standard pour cette tâche.Le chapitre ef{cpgp} présente une seconde ligne de travail, toujours en cours, qui explore une nouvelle architecture pour les réseaux de neurones récurrents.Les réseaux de neurones récurrents maintiennent un état caché qui représente leurs observations antérieures.L'idée de ce travail est de coder certaines dynamiques abstraites dans l'état caché, donnant au réseau une manière naturelle d'encoder des tendances cohérentes de l'état de son environnement.Notre travail est fondé sur un modèle existant; nous décrivons ce travail et nos contributions avec notamment une expérience préliminaire.
机译:递归神经网络是一组越来越流行的顺序模型,能够学习任意算法,为深度学习提供了有力的支持。作为一种机器学习,它的普遍性和经验性成功使它成为一个有趣的研究主题,并成为创建更通用的人工智能的有希望的工具。背景:人工智能,机器学习,深度学习和递归神经网络。接下来的三章以越来越具体的方式涵盖了这些主题,最后,我们介绍了对神经网络的一些贡献 ref {arxiv1}一章介绍了我们对收到的神经网络的正则化的工作正则化旨在提高模型的泛化能力,并在递归神经网络的多种应用(尤其是语音识别)的性能中发挥关键作用,我们的方法给出了TIMIT的最新技术, ref {cpgp}一章提出了第二条工作,该工作仍在进行中,它探索了递归神经网络的新架构,递归神经网络保持了一个隐藏状态,代表着他们的观察结果。这项工作的思想是在隐藏状态下对某些抽象动态进行编码,从而为网络提供一种自然的方式来编码其环境状态的相关趋势。我们以特别的初步经验来描述这项工作和我们的贡献。

著录项

  • 作者

    Krueger David;

  • 作者单位
  • 年度 2016
  • 总页数
  • 原文格式 PDF
  • 正文语种 en
  • 中图分类

相似文献

  • 外文文献
  • 中文文献
  • 专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号