研究实锤:盲目「堆数据、算力」是真错了!这才是LLM训练的正确打开方式
学术头条
2025-12-15 15:59
文章摘要
背景:当前大语言模型训练依赖不透明的互联网语料,呈现“黑箱”特征,难以区分预训练、中期训练和基于强化学习的后训练各自对模型推理能力的具体影响。研究目的:为厘清预训练、中期训练和强化学习后训练如何影响大语言模型的推理泛化能力,卡内基梅隆大学团队构建了完全可控的实验框架进行拆解分析。结论:研究得出关键结论,包括强化学习要产生真实能力增益,需预训练留有“发展空间”且其数据瞄准模型“能力边界”;上下文泛化需要预训练给予“最小但必要”的暴露;在相同计算量下,被低估的中期训练能显著提升性能;过程奖励可减轻奖励黑客,提升推理真实性与可靠性。研究指出高效训练应精心规划各阶段资源,而非盲目堆砌数据与算力。
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。