LLM加RL遭质疑:故意用错奖励,数学基准也显著提升,AI圈炸了

学术头条 2025-05-28 16:53
文章摘要
这篇论文挑战了当前大语言模型(LLM)与强化学习(RL)结合的传统观点,特别是可验证奖励强化学习(RLVR)的有效性。研究发现,使用虚假奖励(如随机奖励或错误奖励)训练Qwen2.5-Math-7B模型,竟然也能显著提升数学推理基准MATH-500的成绩,提升幅度接近真实奖励的效果。然而,这种效果并非在所有模型中都适用,例如在Llama3和OLMo2模型中表现有限。论文进一步探讨了虚假奖励生效的原因,指出这与模型预训练中学到的特定推理策略(如代码推理)密切相关。研究还发现,通过提示或强化学习诱导模型使用代码推理,可以进一步提升Qwen模型的性能,但对其他模型可能产生负面影响。最后,论文建议未来的RLVR研究应在更多样化的模型上进行验证,并更深入地理解预训练对下游任务的影响。
LLM加RL遭质疑:故意用错奖励,数学基准也显著提升,AI圈炸了
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。
学术头条
最新文章
热门类别
相关文章
联系我们:info@booksci.cn Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。 Copyright © 2023 布克学术 All rights reserved.
京ICP备2023020795号-1
ghs 京公网安备 11010802042870号
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术官方微信