基于时空异质性与跨模式交互的多模式交通需求预测:元学习方法详解

本文提出MMDNet模型,通过时空异质性元参数学习和多模式统一图生成两个核心模块,解决多模式交通需求预测中的异质性和交互建模问题。实验表明,该模型在三个城市数据集上提升预测性能6.65%,并展现出强大的跨城市泛化能力,为智能交通系统资源分配和韧性提升提供新思路。


准确联合预测多模式交通需求对资源分配和提升交通系统韧性至关重要。现有方法未充分考虑模式间和模式内的异质性,导致依赖关系提取不足,且难以建模模式间的交互和动态关系。本次为大家带来智能交通领域顶级期刊TITS 2025的文章《Leveraging Spatial–Temporal Heterogeneity and Cross-Mode Interactions: A Meta-Learning Approach for Multimodal Transportation Demand Prediction》。

一. 背景

城市多模式交通系统对于日常出行和城市运营至关重要。随着出行需求增加,整合多种交通模式以实现协同作用变得尤为重要。准确的多模式需求预测能帮助通勤者选择最佳出行方式,并帮助交通管理机构更好地协调交通资源。早期研究主要集中于单一模式预测,难以适应模式间的差异,泛化能力差。近年来,研究转向联合建模多模式需求,采用注意力机制、多任务学习和专家混合等方法,虽然取得了一些进展,但现有方法仍面临三大局限:

(1)现有方法未充分考虑模式间和模式内的显著异质性,导致依赖提取不够精确。

(2)现有的跨模式交互建模方法大多集中于每一对模式的独立建模,忽视了多个模式之间的集体交互,导致预测不可靠。

(3)现有研究在跨城市泛化能力和可解释性分析方面存在不足,虽然在单一城市数据集上表现优异,但未验证在不同城市中的泛化能力。

为了这些问题,本文提出了一个创新的元参数学习网络MMDNet。该模型通过捕捉时空异质性并统一模式间交互,提升了多模式需求预测的准确性。模型包括两个核心模块:时空异质性元参数学习模块和时空多模式统一图生成器。前者捕捉模式间的差异与时空异质性,后者通过生成动态统一图来捕捉多模式间的交互关系。

本文的研究贡献总结如下:

(1)提出了一个创新的模型MMDNet,通过构建专为多种交通模式设计的异质性建模框架,推动了多模式需求预测的发展。

(2)通过捕捉模式间差异及模式特定的时空异质性,时空异质性元参数学习方法引导了更精准的依赖学习,显著提升了模型在异质性驱动下的预测性能。

(3)通过生成三种或更多交通模式的动态统一图,时空演变统一图生成器突破了成对跨模式图的局限,实现了交互的充分统一并捕捉了多模式需求中的动态关系。

(4)实验结果表明,MMDNet在三个城市的数据集上提高了6.65%的预测性能,并展示了强大的跨城市泛化能力。

二. 基础概念

2.1****交通站点/区域/聚类****

定义了两类交通模式,基于站点的交通模式(如地铁、公交)使用固定的物理站点作为空间单元,而无固定站点的模式(如出租车、打车、共享单车)则使用区域或聚类。

2.2****交通需求

交通需求指乘客或车辆的流量,具体为乘客进出或车辆进入/离开某一基本空间单元的数量,记作Xt

2.3 多模式****交通系统

多模式交通系统包括多种交通模式,每个模式有不同的空间单元和需求向量。

三. 方法

3.1****架构描述

1为MMDNet的架构,包括三个核心模块。历史多模式需求首先输入时空异质性元参数学习模块(模块1)和时空演变多模式统一图生成模块(模块2)。模块1建模模式间差异与时空异质性,模块2生成时间变化的多模式统一图,统一模式间交互。两个模块最终整合至时空关系提取模块(模块3),提取多模式交通异质性和动态的模式内外交互。

图1 MMDNet架构

3.2时空异质性元参数学习模块

元参数学习通过扩展模型的原始参数空间,捕捉模式间的差异,并为每个模式分配独立的时空参数空间,以便更好地学习每种模式的时空特征。为提高效率,采用时空异质性嵌入矩阵进行学习,并通过共享基础元参数集θpool,减少模型参数的数量,从而有效捕捉多模式需求的时空异质性。在此基础上,模型包括以下关键步骤:

**(1)多模式交通时空异质性嵌入:**为每个交通模式和时间周期分配学习的时空嵌入,捕捉模式的时空异质性。

**(2)多模式交通属性注入:**注入每种模式的时空异质性,减少参数数量并高效提取特征。

**(3)多模式交通时空异质性学习:**通过时空嵌入矩阵,为多模式交通系统建模,捕捉时空特征。

算法1 时空异质性元参数学习

3.3时空演变多模式统一图生成模块

多模式交通系统表现出明显的模式内和跨模式异质性。现有预测方法通常使用多图模型来捕捉模式内交互,利用模式对图和模式间图表示每个模式之间的关系。建模过程如下:

其中, 表示第个模式 的时空关系,Xm是模式m的需求依赖向量,θm是可学习参数。然而,模式对图无法有效捕捉三个或更多模式之间的交互,且模式内和跨模式图是时间不变的,难以捕捉时变依赖。

图2 时空演变多模式统一图生成器示意图

如图2所示,基于出租车需求图模型的启发,本文提出了时空演变多模式统一图生成模块。该模块生成时间变化的统一图,结合模式内和模式间图,全面统一各模式的交互。在生成过程中,各模式的图同时协调生成,充分融合多模式交通系统中的交互。为降低多模式系统建模的计算开销,仅学习可训练的元参数矩阵,而非生成动态统一图。通过时空嵌入矩阵生成候选统一图,捕捉不同模式间的时空异质性,具体过程如下:

(1)对每个时刻t,选择时空元参数集中的第t时刻元参数向量,并与周期性嵌入矩阵相乘,生成时刻t的时空表示。

(2)将时空表示与候选统一邻接矩阵结合,生成统一图,作为各模式间独特关系的表示。

算法2 时空演变多模式统一图生成器

3.4时空关系提取模块

该模块结合了动态建模的优势,用于多模式统一图的时空异质性特征化的元参数学习。

**(1)模式内关系提取与异质性元参数学习:**图卷积回归单元(GCRU)作为基础单元,用于集成统一图和时空异质性元参数。对于动态模式内关系的提取,生成的模式内图与时空元参数一起被输入到GCRU中。GCRU将时空图和时空元参数作为输入,计算输出:

其中,和为输入的时空图和时空元参数, 为模式 m 的更新门。

2)多模式交通时空异质性嵌入:通过学习时空异质性嵌入矩阵来进一步增强多模式交通系统的时空异质性特征表示。时空异质性嵌入通过图卷积神经网络(GCN)结合统一图来表示每个模式的时空特征。

**(3)多模式交通时空异质性学习:**在建模模式间差异的同时,还需考虑每种模式的内部异质性,尤其是模式内部的时空异质性。通过时空嵌入矩阵学习各模式的时空特征,并通过图卷积与时空元参数进一步增强模式间的时空依赖关系。

**(4)损失函数:**为优化模型性能,使用混合的损失函数,将Huber损失和平均绝对百分比误差(MAPE)结合起来,以平衡两者的影响。

四. 实验

4.1 实验细节

**实验设置:**所有实验均在Ubuntu 20.04操作系统上,使用PyTorch 2.0.0和Intel Xeon® Platinum 8255C CPU(2.50GHz)和NVIDIA GeForce RTX 2080Ti GPU进行。

训练时使用Adam优化器,批量大小分别为64(NYC-Dataset)和128(BJ-Dataset)。

学习率设置为0.003,损失参数为5(NYC-Dataset),15(BJ-Dataset)和3(CHI-Dataset)。

学习率衰减分别设置为0.0(NYC-Datasets)和0.00005(BJ-Dataset)。总训练轮次为500次,使用提前停止(patience 20)避免过拟合。

**数据集:**实验使用三个真实世界的数据集(纽约、北京、芝加哥)来评估MMDNet,涉及四种不同的交通模式。前两个数据集验证模型的预测性能,最后一个数据集作为补充数据集,用于验证跨城市的泛化能力。

4.2 对比实验

实验选择了六种比较方法:

Graph WaveNet(GWNet):集成了固定图和自适应图来提取关系。

AGCRN:设计了自适应图,并使用元参数学习捕捉交通流中的节点特定模式。

MVSTT:设计了一个多维变换器,用于学习交通流中的时空特征。

LPE-STGTN:设计了一个演化图生成器,用于捕捉出租车和打车需求中的动态时空关系。

HimNet:使用元学习捕捉交通数据中的时空异质性。

M2-former:捕捉多模式中的时空依赖性。

表1 纽约数据集(NYC-Dataset)上多模式需求预测的模型性能比较

表2 北京数据集(BJ-Dataset)上多模式需求预测的模型性能比较

MMDNet与基准模型在NYC-Dataset和BJ-Dataset上的比较性能如表1和表2所示,报告了五次独立运行的平均结果和标准差。单模式需求预测模型(如AGCRN、GWNet、MVSTT和LPE-STGTN)表现一般,因为它们分别处理各交通模式的数据,难以捕捉模式间的交互。尽管M2-former专为多模式需求预测设计,能够同时处理所有模式的需求,但由于缺乏细粒度的模式特征,其性能有所局限。

相比之下,MMDNet在两个数据集上表现出色,超越了所有竞争对手。与其他模型不同,MMDNet能够在多模式需求预测中实现优异且稳定的整体性能,这得益于两个关键因素:首先,时空演变统一图生成器充分捕捉跨模式的动态交互,解决了现有模型在建模三种或更多模式间交互时的局限性;其次,MMDNet能更精细地捕捉模式间和模式内的时空异质性,超越了AGCRN和HimNet等元参数学习模型。

总体而言,MMDNet在所有交通模式的评估指标上都取得了最佳结果,整体多模式需求预测在两个城市的表现提升了6.65%,彰显了其在不同环境下的强大预测能力。

4.3 消融实验

为了验证MMDNet模型的关键组件,进行了一系列消融实验,设计了两个变种进行对比:

MMDNet-Without Unified Graph Generator (V1):采用基于距离的图来表示不同交通模式之间的关系,取代了时空演变的多模式统一图。

MMDNet-Without Meta-Parameter Learning (V2):去除了时空元参数,改为使用普通的二维随机初始化参数。

表3 NYC-Dataset和BJ-Dataset上的消融分析

实验表明,V1在捕捉动态关系和跨模式交互时表现较差,导致预测性能下降,这验证了时空演变统一图生成器的重要性。V2则在多模式需求预测中表现出显著的性能退化,证明了仅通过提取跨模式交互而不考虑模式间异质性是不足以提升预测性能的。这些结果证明了MMDNet在多模式交通需求预测中的关键作用。

4.4 计算成本分析

表4 NYC-Dataset和BJ-Dataset上的效率比较

如表4所示,本文首先比较了所有模型在批量大小为64时的训练效率。尽管LPE-STGTN在BJ-Dataset中对打车和共享单车数据有较高效率,但在处理地铁数据时,因节点数量较大,无法在GPU上运行。相比之下,MMDNet在多模式交互建模上额外计算,但其效率优于GWNet和MVSTT。与AGCRN、HimNet等高效基准模型相比,MMDNet的计算成本仍在可接受范围内。

图3 内存使用比较

图3为进一步分析推理的内存使用情况,展示了多模式预测性能与内存消耗之间的权衡。MMDNet在每批数据的内存使用上表现优异,同时保持较高准确性,表明其在大数据处理时准确性和内存使用量之间达到了良好平衡。总的来说,MMDNet在保持合理效率的同时,成功平衡了高准确性与低内存消耗。

4.5 泛化分析

图4 不同城市交通模式的需求分布

本节验证了模型在不同城市背景下的泛化能力。使用CHI-Dataset作为补充数据集评估模型性能。如图4所示,CHI-Dataset与NYC/BJ数据集相比,需求分布差异明显。

图5 CHI-Dataset上的模型性能比较

与基准模型相比,MMDNet在CHI-Dataset上表现优越,尽管与HimNet的表现有一定重叠,但误差和标准差较低,展现了更高的准确性和稳健性。这与NYC/BJ数据集上的结果一致,验证了模型的广泛适用性。MMDNet能够有效处理具有不同组织特征的交通模式,包括地铁、出租车/打车和共享单车,展示了卓越的预测能力和灵活适应性。

五.总结

本文提出了一种创新的多模式需求预测模型MMDNet,通过捕捉时空异质性并统一模式间交互,显著提升了多模式交通需求预测的准确性。MMDNet包含两个核心模块:时空异质性元参数学习模块和时空多模式统一图生成器。前者通过学习模式间的差异与时空异质性,后者则通过生成动态统一图来捕捉多模式间的交互关系。实验结果表明,MMDNet在多个真实城市数据集上优于现有的基准模型。未来的研究可以探讨将MMDNet扩展到更多城市系统,并结合其他多模态数据,进一步提高其在复杂城市环境中的预测能力和应用价值。

AI大模型从0到精通全套学习大礼包

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

只要你是真心想学AI大模型,我这份资料就可以无偿共享给你学习。大模型行业确实也需要更多的有志之士加入进来,我也真心希望帮助大家学好这门技术,如果日后有什么学习上的问题,欢迎找我交流,有技术上面的问题,我是很愿意去帮助大家的!

如果你也想通过学大模型技术去帮助就业和转行,可以扫描下方链接👇👇
大模型重磅福利:入门进阶全套104G学习资源包免费分享!

01.从入门到精通的全套视频教程

包含提示词工程、RAG、Agent等技术点

02.AI大模型学习路线图(还有视频解说)

全过程AI大模型学习路线


03.学习电子书籍和技术文档

市面上的大模型书籍确实太多了,这些是我精选出来的


04.大模型面试题目详解

05.这些资料真的有用吗?

这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。

所有的视频由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念‌,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势‌,构建起"前沿课程+智能实训+精准就业"的高效培养体系。

课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!


如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能 ‌突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1215537.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

转行AI的工程师看过来:Transformer+注意力机制详解,手写可运行PyTorch代码

本文面向想转行AI的软件工程师,从工程视角讲解Transformer与注意力机制的核心原理。通过代码搜索比喻解释Self-Attention的Q/K/V机制,详述Multi-Head Attention、位置编码及编码器层结构,并提供可运行的极简版PyTorch实现。文章对比了BERT与G…

CST License(Flexnet)设置与问题处理方法 - 详解

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

AI大模型面试宝典:全面解析大模型技术,助你轻松应对各类面试问题

本文系统梳理了AI大模型开发技术的面试要点,涵盖增量预训练、知识蒸馏、推理加速等多个维度,并提供七阶段学习路线图及视频教程、电子书、面试题等资源,帮助程序员系统掌握大模型技术,提升面试竞争力。AI 大模型技术经过2025年的狂…

大模型时代,构建高质量数据基础设施的五大关键

随着大模型与智能体兴起,传统数据基础设施面临体系性变革,高质量数据价值凸显。未来AI将从"生成内容"转向"解决复杂问题",数据需具备实时性、一致性和可解释性。产业应构建"用户反馈-场景数据-模型迭代"闭环&a…

安全工具篇魔改二开CS消除流量特征Profile请求个性主题反编译去暗桩

免杀对抗——第一百六十三天 安全工具篇&魔改二开CS&消除流量特征&Profile请求&个性主题&反编译去暗桩 前置知识 今天是关于CS免杀的部分,之前都是针对生成的木马进行免杀,但是在反连的过程中,我们的流量也是有特征的…

为什么程序员都在学大模型?掌握未来AI核心技术的全面指南

大模型已成为AI变革核心引擎,深入各行各业。掌握RAG、AI Agent等技术的人才需求旺盛,薪资优厚。开源生态如DeepSeek、通义千问为学习者提供绝佳机会。"大模型之心Tech"社区提供全栈学习路线、技术交流和求职资源,帮助小白入门、进阶…

LLM微调终极指南:第七阶段监控与维护,让AI模型永不失控!【必收藏】

LLM微调第七阶段聚焦监控与维护,构建三层架构与五条监控链路,涵盖性能、内容、漂移、Agent行为、反馈闭环及版本控制六大子系统,确保模型长期稳定、安全、可演进。通过持续监控与反馈闭环实现"数据→模型→服务→反馈→再进化"的完…

【2026全网首发】AI智能体完全指南:面试必备+大模型开发实战+学习资源全解析

本文系统介绍AI智能体的核心概念、架构设计与实战应用,涵盖与普通大模型调质的本质区别、ReAct模式、工具调用机制、记忆系统设计等关键技术。同时提供大模型学习路线图、行业报告、面试真题等丰富资源,帮助读者从基础到进阶系统掌握AI智能体开发&#x…

【大学院-筆記試験練習:线性代数和数据结构(16)】

大学院-筆記試験練習:线性代数和数据结构(16) 1-前言2-线性代数-题目3-线性代数-参考答案4-数据结构-题目5-数据结构-参考答案中文解释(题意)日语答案(1)(2)(…

生物医学研究新利器:自我进化LLM智能体架构与实战

STELLA是一个专为生物医学研究设计的自我进化AI智能体系统,通过四大智能体协同工作,实现动态扩展工具库和可进化推理模板库。在多个生物医学基准测试中表现优异,准确率随使用经验提升近一倍。该系统能加速科学发现,降低技术门槛&a…

【必藏】大模型入门指南:从成本到架构的全景解析,程序员小白必看

本文解析了大模型基础知识,包括高昂训练成本(13B模型需40万美元)、Transformer架构原理、不同语言tokenization效率差异、LLaMA架构优势、反向传播训练过程及高质量数据的重要性。强调对话能力源于文本补全,可通过外部知识库减少幻觉。指出虽然大模型为何…

小白也能学会!本地大模型全部署教程(Mac+Win)

本文详细介绍了使用Ollama工具在Mac和Windows系统上本地部署大模型的完整教程,无需编程基础即可操作。文章解释了本地部署的优势(隐私保护、断网可用、不触发屏蔽词等),提供了两种部署方式的详细步骤,比较了本地与云端…

无监督配准

基于你提供的搜索结果,我为你整理了关于深度学习在有监督配准与无监督配准方面的对比分析。这涵盖了定义、特点、方法及效果的详细对比。 核心定义与区别 在深度学习应用于图像配准(尤其是医学图像)的领域中,有监督学习和无监督…

ENSP Pro LAB笔记:配置M-LAG双归接入三层网络(V-STP + Monitor Link + OSPF)

1. 前言 在现代数据中心和园区网络的高可靠性设计中,M-LAG(Multichassis Link Aggregation Group,跨设备链路聚合组) 已经成为主流技术。它允许将两台物理交换机虚拟成一台逻辑交换机,从而实现跨设备的链路聚合。 本文…

救命神器!MBA开题报告必备TOP8 AI论文平台深度测评

救命神器!MBA开题报告必备TOP8 AI论文平台深度测评 2026年MBA开题报告AI平台测评:为何需要这份深度榜单 MBA学生在撰写开题报告时,常常面临选题方向不清晰、文献资料繁杂、逻辑框架难构建等挑战。随着AI技术的不断进步,越来越多的…

AT_abc442_g [ABC442G] Lightweight Knapsack

来讲一下官解。 如果 \(K_i = 1\) 就是 CF808E,那题有神秘 DP 做法,感兴趣的可以去看看。 对于这题,肯定是要贪心的。有个显然的事情就是如果我们记重量为 \(w\) 的物品选了 \(F_w\) 个,那么我们肯定要贪心地选取 …

基于STM32的有害气体检测系统

目录STM32有害气体检测系统概述核心硬件组成软件设计要点典型应用场景优化方向源码文档获取/同行可拿货,招校园代理 :文章底部获取博主联系方式!STM32有害气体检测系统概述 STM32有害气体检测系统是一种基于STM32微控制器的嵌入式解决方案,用…

基于STM32的汽车防盗报警系统设计

目录 STM32汽车防盗报警系统设计概述核心功能模块硬件设计要点软件设计流程低功耗与安全优化典型应用场景扩展功能方向 源码文档获取/同行可拿货,招校园代理 :文章底部获取博主联系方式! STM32汽车防盗报警系统设计概述 该系统基于STM32微控制器&#x…

基于STM32的电热水器控制系统设计

目录 系统架构设计温度采集模块加热控制模块人机交互模块安全保护机制通信功能扩展软件算法优化低功耗设计 源码文档获取/同行可拿货,招校园代理 :文章底部获取博主联系方式! 系统架构设计 STM32电热水器控制系统通常采用模块化设计,包括主控…

2026年1月工业清洗与稀释剂厂家推荐榜单:脱漆剂/除蜡水/防锈油/溶剂油/助焊剂/碳氢清洗剂/环保型清洗剂/油墨稀释剂等专业化工产品源头供应

2026年1月工业清洗与稀释剂厂家推荐榜单:脱漆剂/除蜡水/防锈油/溶剂油/助焊剂/碳氢清洗剂/环保型清洗剂/油墨稀释剂等专业化工产品源头供应 随着全球制造业向智能化、绿色化转型,工业清洗与表面处理作为生产流程中的…