声明
摘要
绪论
1.1研究背景与意义
1.2国内外研究现状
1.3本文的研究内容
1.3.1基于深度学习的单轮对话的口语理解研究
1.3.2基于深度学习的多轮多任务对话的口语理解研究
1.4本文组织结构
第二章相关理论与技术
2.1任务型人机对话中口语理解简介
2.2文本表示
2.2.1文本向量表示
2.2.2词向量模型
2.3神经网络和深度学习
2.3.1卷积神经网络
2.3.2循环神经网络和长短时记忆网络模型
2.3.3序列到序列模型
2.3.4注意力机制
2.4本章小结
第三章基于CNN-BLSTM编码的单轮对话口语理解模型
3.1引言
3.2问题描述
3.3.2基于卷积神经网络和循环神经网络的编码器
3.3.3基于注意力机制和对齐输入的解码器
3.3.4目标函数
3.4实验环境
3.4.1数据准备
3.4.2参数设置
3.4.3实验设置
3.5实验结果与分析
3.5.1不同编码叠的意图识别和槽填充联合模型实验分析
3.5.2 解码器中引入注意力机制和对齐输入的实验分析
3.5.3联合模型和单个模型的实验分析
3.5.4不同的卷积核大小对模型影响实验分析
3.6本章小结
第四章多轮多任务对话的口语理解模型
4.1引言
4.2问题描述
4.3.2历史对话编码器
4.3.3多轮多任务的意图识别与槽填充的联合模型
4.3.4目标函数
4.4实验环境
4.4.1数据准备
4.4.2参数设置
4.4.3实验设置
4.5实验结果与分析
4.5.1加入历史对活信息的实验分析
4.5.2在历史信息编码中加入当前对话的实验分析
4.5.3历史对话信息编码中引入注意力机制实验分析
4.5.4联合模型中引入历史门单元实验分析
4.6本章小结
第五章总结与展望
5.2展望
参考文献
研究成果及参加的科研项目
致谢
华中师范大学;