当前位置:首页 > 报告详情

复旦大学:2024如何提升大模型任务能力报告(39页).pdf

上传人: c** 编号:186803 2024-12-27 39页 4.08MB

下载:
word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文探讨了大型语言模型如ChatGPT如何通过预训练和有监督微调提升任务能力。预训练阶段,模型通过处理数千亿单词量的数据,包括图书、百科、网页等,来存储知识。关键点包括:1. 同一知识点需以不同方式重复以被模型学习。2. 高知识密度的训练数据至关重要。3. 足够训练后模型能达到每参数2比特的知识存储能力。4. 若预训练未学到知识,微调将无效。 有监督微调阶段涉及四种微调方式,并探讨了数学推理、编程和一般能力与SFT数据量的关系。实验分析指出:1. 大模型在相同数据量下表现更佳。2. 混合数据源在低资源环境下提升性能,但在高资源环境下性能可能下降。3. 数据量直接影响性能,而数据比例的影响不显著。4. DMT策略能有效缓解性能冲突。 此外,文章还讨论了知识回答与其他任务冲突的解决,大规模微调对世界知识的影响,以及LoRA+MoE和RLHF等方法在生成式任务中的应用。最后,文章指出提升任务效果需要一定数量的标注数据,多任务间的相互影响和关系需深入研究,多任务训练方法尚缺乏统一认识,强化学习对生成任务效果提升具有重要作用。
如何提升大模型任务能力? 大模型如何通过微调学习新任务? 强化学习在大模型生成任务中的作用是什么?
客服
商务合作
小程序
服务号
折叠