首页> 外文会议>システム制御情報学会研究発表講演会 >単語の活用に着目した効率的な自然言語生成
【24h】

単語の活用に着目した効率的な自然言語生成

机译:高效的自然语言生成专注于单词使用

获取原文

摘要

1stmを用いたseq2seqモデルなど自然言語処理の学習には時間がかかりやすい.その対策としてattention機構のように効率的に学習が行えるようモデルの構造を工夫したり,Model parallelのような並列計算を行うといった計算方法の工夫がなされてきた.本研究では学習量を減らすことによって学習時間を短縮することを試みた.学習に時間がかかる要因の一つに学習コーパスに含まれる語彙数の多さが考えられる.一般にseq2seqモデルで学習を行う場合,10万前後の数の語彙を扱うことが多い.seq2seqモデルの入力にはone-hotベクトルを用いるがその次元はコーパスに含まれる語彙数になる.語彙数が増せばベクトルのサイズも大きくなり,またそれに合わせてseq2seqモデル内部の重み行列等のサイズも大きくなる.さらにそれは学習の際,大量のメモリを必要とすること意味する.そこで本研究では単語の活用に注目し学習モデルの精度を落とさずに語彙数を減らし,計算時間の短縮および使用メモリ量を削減することを目的とする.
机译:使用1stm易于学习SEQ2SEQ模型等自然语言处理。作为对策,它设计了一种规范的计算方法,该方法设计了模型的结构,使得可以有效地执行学习,如注意机制,或者已经进行了平行的并行计算。在这项研究中,我们试图通过减少学习金额来降低学习时间。需要学习时间的因素之一被认为是学习语料库中包含的大量词汇量。通常,当在SEQ2SEQ模型中进行学习时,它通常会处理10,000人后的词汇量。尽管使用单热量向量来输入SEQ2SEQ模型,但维度是语料库中包含的词汇数量。如果词汇量增加,则载体的大小也增加,并且SEQ2Seq模型内的重量矩阵的大小也增加。此外,这意味着在学习期间需要大量的记忆。因此,在本研究中,本发明的一个目的是减少词汇数量并减少计算时间并减少内存使用量。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号