声明
致谢
1 引言
1.1 研究背景与意义
1.2 国内外研究现状
1.3 研究内容及主要贡献
1.4 论文组织结构
2 论文相关知识
2.1 轨迹的基本概念
2.2 深度学习算法
2.2.1 循环神经网络
2.2.2 编码器-解码器结构
2.3 基于注意力机制的深度表达学习算法
2.3.1 Transformer算法
2.3.2 BERT算法
2.4 轨迹相似度计算
2.4.1 欧几里得距离
2.4.2 余弦距离
2.5 本章小结
3 实验环境与数据预处理
3.1 开发工具
3.1.1 Python 语言
3.1.2 Anaconda 集成环境
3.1.3 Pytorch 框架
3.2 数据预处理
3.2.1 数据集描述
3.2.2 数据清洗
3.2.3 轨迹区域编码
3.3 本章小结
4 基于多头注意力机制的轨迹表达算法
4.1 基于 Transformer 的轨迹表达算法
4.1.1 模型结构
4.1.2 模型训练
4.2 基于 BERT 的轨迹表达算法
4.2.1 模型结构
4.2.2 模型训练
4.3 本章小结
5 模型评估与结果分析
5.1 实验设置
5.2 实验设计
5.3 实验结果与分析
5.3.1 实验结果
5.3.2 模型对比分析
5.4 轨迹表达算法的验证与应用
5.4.1 模型表达能力验证
5.4.2 轨迹表达算法的应用
5.5 本章小结
6 总结及展望
6.1 论文工作总结
6.2 未来工作展望
参考文献
作者简历及攻读硕士学位期间取得的研究成果
独创性声明
学位论文数据集
北京交通大学;