首页> 外文会议>システム研究会 >階層型再帰ァテンションモデル
【24h】

階層型再帰ァテンションモデル

机译:分层重新返回目标模型

获取原文

摘要

書籍、新聞、ウェブサイトなど様々なメディアに存在するテキストデータの要約に関する研究は近年盛hに行われている。 2015年にRushらは、リカレント二ユーラルネットワークを用いて抽象型文章要約システム(ABS)を提案した。翌年、Chopraらは、畳み込みニューラルネットワーク(CNN)をABSに導入し、新たにリカレントァテンシヨン要約モデル(RAS)を開発した。呉本らは従来の自動要約モデルにおける出力が固定長である問題を改善し、複数のアテンションモジュールを併用した階層型ァテンシヨンシステムを提案した。また、デコーダにある隠れ層に再帰的構造を導入することによってRushらのABSの要約精度を向上させた。本研究では、文献6に提案された再帰的アテンションモデルRAMの要約精度をさらに改善するため、入力文章が長い場合に、それを分割し、複数のエンコーダの入力とすることを提案する。LivedoorNEWサイトの記事内容とそのタイトルを実験データとして比較実験を行い、新たな階層アテンションモデルの優位性を確認することができた。
机译:在博士博士中进行了关于书籍,报纸,网站等的各种媒体中的文本数据摘要研究。 2015年,Rush等人。使用经常性的双速网提出了抽象文本摘要系统(ABS)。次年,Chopra等人。向ABS推出了一个卷积神经网络(CNN)并新开发了一次重新安装汇总模型(RAS)。 Kashiwa在具有固定长度的传统自动摘要模型中提高了问题,并提出了一种使用多个注意模块的分层造影系统。此外,我们通过在解码器中的隐藏层中引入递归结构来提高Rush等人的总结精度。在本研究中,为了进一步提高文献6中提出的递归注意力模型RAM的总结精度,建议将输入句子长并进入多个编码器时划分。将寿化遗址及其标题的内容与实验数据进行比较,并且可以确认新的分层关注模型的优越性。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号