声明
摘要
第一章绪论
1.1研究背景及意义
1.2国内外研究现状
1.3本文主要工作内容
1.4本文组织结构
第二章相关理论和技术介绍
2.2.2word2vec
2.3循环神经网络
2.3.1长短期记忆网络
2.3.2双向循环神经网络
2.4序列到序列模型(Seq2Seq)
2.5注意力机制(Attention)
2.5.1自注意力机匍J(Self-Attention)
2.5.2多头注意力机制(Multi-Head Attention)
2.6外部知识库ConceptNet
2.7Transformer模型
2.8集束搜索算法
2.9本章小结
第三章基于外部知识和RTN的文本生成模型
3.1引言
3.2基于TWA-LSTM的文本生成模型
3.3基于外部知识和TWA-LSTM的文本生成模型
3.4基于外部知识和TWA-RTN网络的文本生成模型
3.4.1基于Transformer的文本生成模型
3.4.2RTN网络的提出和设计
3.4.3基于外部知识和TWA-RTN网络的文本生成模型实现
3.5本章小结
第四章实验与结果分析
4.2实验数据集
4.3评价指标
4.3.2人工评估
4.4实验参数设置
4.5实验结果分析与对比
4.5.1基准模型
4.5.2实验结果
4.6本章小结
第五章总结与展望
5.1总结
5.2展望
参考文献
致谢
华中师范大学;