微软提出新型注意力机制SeerAttention;清华、智谱团队提出“预训练蒸馏”|大模型日报

学术头条 2024-10-22 17:30
文章摘要
清华大学和智谱团队提出了一种新的预训练蒸馏(PD)方法,将知识提炼扩展到大型语言模型(LLM)的预训练阶段,使用GLM-4-9B作为教师模型,对1.9B参数的学生模型进行实验,验证了PD的有效性。Hugging Face团队推出了开源、无代码工具/库AutoTrain,支持多种任务的模型训练和微调。卡内基梅隆大学团队推出了多语言多模态大语言模型Pangea,涵盖39种语言,通过PangeaIns数据集训练,表现优于现有开源模型。
微软提出新型注意力机制SeerAttention;清华、智谱团队提出“预训练蒸馏”|大模型日报
本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者速来电或来函联系。
学术头条
最新文章
热门类别
相关文章
联系我们:info@booksci.cn Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。 Copyright © 2023 布克学术 All rights reserved.
京ICP备2023020795号-1
ghs 京公网安备 11010802042870号
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术官方微信