ICLR 2026 | 图模型也能合并?多任务融合框架G-Merging,仅5%参数反超微调

PaperWeekly 2026-03-06 21:41
文章摘要
本文针对图神经网络在多任务场景下面临的模型存储与计算负担问题,提出了一种名为G-Merging的图模型融合框架。研究背景指出,传统“预训练+下游微调”范式需为每个任务保存独立模型,效率低下。研究目的是通过融合多个微调模型的参数,构建一个统一且高效的多任务模型。该方法包含初步参数融合、拓扑感知对齐和无参数的MoE路由三个步骤,利用任务向量叠加、拓扑感知Wasserstein距离损失和动态路由机制,在仅训练约5%-10%参数的情况下,于多个分子图分类任务上取得了优于基线方法甚至部分单任务微调模型的性能。结论表明,该工作首次系统探索了图神经网络的模型融合,验证了其可行性,为多任务图学习提供了高效部署的新思路。
ICLR 2026 | 图模型也能合并?多任务融合框架G-Merging,仅5%参数反超微调
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。
PaperWeekly
最新文章
热门类别
相关文章
联系我们:info@booksci.cn Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。 Copyright © 2023 布克学术 All rights reserved.
京ICP备2023020795号-1
ghs 京公网安备 11010802042870号
Book学术文献互助
Book学术文献互助群
群 号:604180095
Book学术官方微信