清华团队打造TDRM:基于时间差分学习平滑奖励模型

学术头条 2025-10-09 12:00
文章摘要
本文针对大语言模型强化学习中奖励模型缺乏时间一致性的问题,提出TDRM框架。研究背景是现有奖励模型在推理轨迹中相邻步骤奖励无关,导致训练不稳定和误导信号。研究目的是通过时间差分学习构建平滑奖励模型,结合过程奖励与可验证奖励提升性能。结论表明TDRM在Best-of-N和树搜索中最高提升23.7%性能,强化学习数据效率提升20倍,在多个模型变体上验证了其有效性。
清华团队打造TDRM:基于时间差分学习平滑奖励模型
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。
学术头条
最新文章
热门类别
相关文章
联系我们:info@booksci.cn Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。 Copyright © 2023 布克学术 All rights reserved.
京ICP备2023020795号-1
ghs 京公网安备 11010802042870号
Book学术文献互助
Book学术文献互助群
群 号:604180095
Book学术官方微信