首页> 中国专利> 一种基于多任务超图卷积网络的多源交通流预测方法

一种基于多任务超图卷积网络的多源交通流预测方法

摘要

本发明提出了一种基于多任务超图卷积网络的多源交通客流预测方法,涉及深度学习等领域,尤其是面向超图表示以及图卷积网络的流量预测任务。本方法适用于时空对齐的多源异构交通流数据,多源异构交通流数据相互影响该方法包含一个主要任务和一个相关任务。两项任务均基于超图卷积神经网络,并由通过一个特征压缩单元连接,该特征压缩单元对任务之间的相关性进行建模并共享潜在特征,以增强主要任务的性能。相较于单一数据驱动模型,该方法可适用于多源异构交通数据。完成了轨道交通客流预测的任务,提高了预测准确率。

著录项

  • 公开/公告号CN113326974A

    专利类型发明专利

  • 公开/公告日2021-08-31

    原文格式PDF

  • 申请/专利权人 北京工业大学;

    申请/专利号CN202110492567.5

  • 申请日2021-05-01

  • 分类号G06Q10/04(20120101);G06N3/04(20060101);G06N3/08(20060101);G06K9/62(20060101);G08G1/01(20060101);

  • 代理机构11203 北京思海天达知识产权代理有限公司;

  • 代理人张慧

  • 地址 100124 北京市朝阳区平乐园100号

  • 入库时间 2023-06-19 12:24:27

说明书

技术领域

本发明涉及图论和深度学习等领域,尤其是面向多源交通流预测任务。

背景技术

交通预测是智能交通系统的基础,准确的预测对于实际交通应用至关重要。例如,道路交通速度和状态预测对于公共旅行路线规划和动态管理具有重要意义,铁路客运量的预测对于车站压力测试和路线安排至关重要。目前已有了许多用于交通预测问题的方法,但大多数方法局限于单个交通数据源,例如地铁流量或路面车辆速度。但实际上,城市中有多种交通方式同步运行,包括公共汽车,地铁和私家车等,它们在共同的时空内相互影响且互为补充。例如,公交车和地铁都是公共交通的主要选择且营运区域有所重叠。城市交通是一个整体的系统,居民经常将多种交通方式结合出行。同时,公共交通是一个动态的系统。当一种交通方式的运载能力改变时,其他交通方式必然会受到一定程度的影响。例如,在雨雪天气,平日里公交车的乘客由于路面通行能力下降,会倾向于选择地铁出行。

多种交通运输方式的耦合为我们带来了多源交通数据,这些数据表面上是异构的,但内在是相互关联的。目前,交通运输领域已经收集了大量的多源异构交通数据,例如监控设备收集的视频和图像;传感器收集的流量,速度和占用率;以及营运车辆收集的GPS轨迹等。但是,目前的交通流预测方法很少在一体化的模型中考虑和融合异构交通流数据。因此单数据驱动模型难以满足当下交通系统中对于多源异构交通大数据的应用需求,用于多源交通流预测的多数据融合模型是大势所趋。

发明内容

针对上述情况,本方法提出了多任务超图卷积神经网络作为端到端多源异构流量预测框架。提出的框架包含数据预处理,预测多任务和特征压缩单元。我们利用超图学习方法对数据的高阶关联关系建模,以取代局限于成对连接的普通图。数据预处理可确保异构交通数据的超图表示具有一致节点。主要任务和辅助任务均基于超图卷积神经网络。任务之间通过特征压缩单元共享潜在特征。该单元交叉并压缩任务之间的信息,在辅助任务的帮助下提高主要任务的学习能力。输出方面,主要任务以及辅助任务都对整个图结构进行节点级交通流预测,本方法主要关注主要任务的性能提升。

本发明主要创新点为提出了一种新的用于交通预测的多任务超图网络架构,该架构包含一个主要预测任务和一个辅助预测任务,并通过特征压缩单元在训练过程中共享隐藏层特征。

具体技术方案:

基于多任务超图卷积网络的多源交通流预测方法,适用于时空对齐的多源交通流数据,整体网络结构如图1所示。

首先对多源交通数据进行预处理:首先依据主要任务的交通流数据构建超图

构建多任务超图卷积神经网络,并利用训练完成的多任务超图卷积神经网络,通过主要预测任务中的历史交通流数据以及辅助预测任务中的历史交通流数据,对主要预测任务中的交通流数据进行预测;其中多任务超图卷积神经网络包括三部分,即主任务预测网络、辅助任务预测网络以及特征压缩单元,所述的主任务预测网络依次包括第一时序卷积层、第一频域超图卷积层、第二时序卷积层、特征融合层、第三时序卷积层、第二频域超图卷积层、第四时序卷积层、以及全连接层,之后经过线性变换进行输出,其中,特征融合层的输入有两路,一路是主任务预测网络中第二时序卷积层的输出,另一路是特征压缩单元的输出,主任务预测网络的输入为主要任务超图

有益效果

本发明解决了传统交通流预测方法对于多源异构交通数据的处理问题,对于数据之间关联关系利用不足的问题,完成了多源交通流预测任务,提高了预测的准确率。

附图说明

图1、本发明整体网络结构图

图2、特征压缩单元结构示意图

具体实施方式

具体实施中,本发明使用北京市二零一五年七月、九月、十二月,总计三个月的同时期轨道交通客流历史数据,以及公交客流历史数据对多任务超图卷积网络进行训练以及预测结果精确度测试。

本实施例以地铁客流预测作为主要任务,公交客流预测作为辅助任务。对于主要任务,其输入为历史交通流数据

为了通过同质超图表示,需要对数据首先进行预处理。首先按照轨道交通拓扑连接构建超图,以轨道站点作为超图中节点,以轨道线路作为超图中超边。在此基础上对公交客流数据进行预处理,使其与轨道交通的超图表示同质。预处理中首先以地铁站点作为地理位置锚点,并以半径R

完成地铁与公交的同质超图表示后,分别通过超图卷积神经网络进行训练。每个超图卷积神经网络由两个时空超图卷积模块构成。在两个模块之间通过特征压缩单元共享主要任务以及辅助任务之间的特征。特征压缩单元完成特征压缩共享后,由超图卷积神经网络完成各节点预测值输出。本发明通过观测主要任务的预测精度对所提框架的有效性进行评估,具体如下:

构建多任务超图卷积神经网络,并利用训练完成的多任务超图卷积神经网络,通过主要预测任务中的历史交通流数据以及辅助预测任务中的历史交通流数据,对主要预测任务中的交通流数据进行预测;其中多任务超图卷积神经网络包括三部分,即主任务预测网络、辅助任务预测网络以及特征压缩单元,所述的主任务预测网络依次包括第一时序卷积层、频域超图卷积层、第二时序卷积层、特征融合层、第三时序卷积层、第二频域超图卷积层、第四时序卷积层、以及全连接层,之后经过线性变换进行输出。

其中,频域超图卷积层执行频域超图卷积操作,其中超图拉普拉斯算子表示为:

H为超图的关联矩阵,D

其中θ定义为

其中时序卷积层沿时间轴在每个顶点上采用并行的门控线性单元。对于时间序列输入

Γ*

主任务中特征融合层的输入有两路,一路是主任务预测网络中第二频域超图卷积层的输出,另一路是特征压缩单元的输出,主任务预测网络的输入为主要任务超图

辅助任务对应的超图

特征压缩单元表示如下:

其中

主任务预测网络中前三层的整体公式表达与辅助任务预测网络中前三层的整体公式表达相同,且具体表示如下:

F

其中F

*

多任务超图卷积神经网络的输出通过如下损失函数进行优化:

其中i∈{M,R,C},分别表示主要任务,辅助任务,以及特征压缩单元,

对比试验将本发明MTHGCN与ARIMA,SVR,LSTM以及GRU非基于图的数学模型以及机器学习方法,以及T-GCN,STGCN以及DCRNN基于图的预测方法进行比较。同时为了验证本方法中提出多任务架构的有效性,HGCN与MTHGCN的预测准确率也将被比较。MAE和RMSE作为评估指标量化所提出模型和其他方法的准确性,其值越低说明准确性越高。同时我们使用五层交叉验证来确保更稳定的结果。对应所提出模型的输入数据,进站量,出站量以及进出站总量三个通道的预测平均值被用于评估模型效果。

表1显示了再北京数据集上,八月、九月以及十一月全日预测准确度的对比实验结果,考虑到数据集的大小,对于每个月的数据,我们采用8:1:1的比例来划分训练集,验证集和测试集。实验结果如表1所示,最佳的预测结果被加粗表示。首先横向比较三个月份的实验结果大体趋势相同,八月份的预测准确性对比其他两个月相对较低。纵向比较各方法的预测准确度,基于图的方法要优于非基于图的方法。在非图的方法中,ARIMA的预测精度最低,而LSTM和GRU的预测精度较高。对于基于图的方法,提出的HGCN利用超图表示的优势,比STGCN的精度有所提高。此外,本方法提出的MT-HGCN预测准确度最高,通过使用动态超图的模式对时空特征进行捕获可使准确度提升。

表2根据早高峰和晚高峰比较了上述方法中的轨道交通客流量预测的准确性。对比方法依旧分为非基于图的方法和基于图的方法两大类。由表所示,整体而言早晚高峰预测准确度相近。对于其中基于非图的方法,ARIMA的预测精度最低,其次是SVR。相比之下LSTM和GRU可以实现更准确的预测,它们都是克服短期记忆问题的有效解决方案。但是,基于非图的方法和基于图的方法之间仍然存在差距。T-GCN的准确度几乎优于所有非图的方法,尽管它在基于图的方法中准确性最差,其次是提取了时空特征的STGCN模型。HGCN引入了超图表示以及超图卷积模块,相较于STGCN准确度有所提升。而MT-HGCN,即本发明所提方法,通过多任务机制实现了优于其他方法的最高准确率。

无论是全时段实验或早晚高峰期实验,本发明所提出的模型都比其他比较方法实现了更高的预测精度,这预示了该方法在未来在实际应用中的良好前景。

表1:预测实验准确率对比结果

表2:早晚高峰时段预测精度对比。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号