强化学习远不是最优,CMU提出最大似然强化学习

数据派THU 2026-02-14 17:00
文章摘要
本文背景在于大模型时代强化学习被广泛用作提升模型性能的“最后一公里”标准配置,但其优化目标与直觉上期望的最大化正确输出概率存在偏差。研究目的是针对传统强化学习仅优化最大似然目标一阶近似的问题,提出最大似然强化学习(MaxRL)框架,通过一族以计算量为索引的目标函数逐步逼近真正的最大似然优化。结论显示,MaxRL在多个任务和模型规模上均能更高效地提升性能,其优化目标可随计算资源增加而改善,在训练和测试阶段均展现出优于现有方法的计算效率与性能提升。
强化学习远不是最优,CMU提出最大似然强化学习
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。
数据派THU
最新文章
热门类别
相关文章
联系我们:info@booksci.cn Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。 Copyright © 2023 布克学术 All rights reserved.
京ICP备2023020795号-1
ghs 京公网安备 11010802042870号
Book学术文献互助
Book学术文献互助群
群 号:604180095
Book学术官方微信