当前位置:首页 > 报告详情

刘群_Self-improvement and Self-evolving of Large Language Models(1)_watermark.pdf

上传人: 张** 编号:155613 2024-02-15 45页 5.65MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文主要介绍了华为诺亚方舟实验室提出的两种大语言模型(LLM)的自我改进和自我进化方法:SELF(Self-Evolution with Language-Driven Feedback)和Gaining Wisdom from Setbacks。 SELF方法通过自我反馈和自我完善,使LLM能够从自己的错误中学习并改进性能。该方法包括两个阶段:元技能学习和迭代自我进化。在元技能学习阶段,LLM通过分析错误输出并生成改进后的输出,学习自我反馈和自我完善的能力。在迭代自我进化阶段,LLM使用自我生成的训练数据进行微调,以实现持续的性能提升。实验结果表明,SELF方法可以显著提高LLM在数学、常识和安全领域的性能。 Gaining Wisdom from Setbacks方法通过错误分析,使LLM能够理解和避免生成有害内容。该方法包括四个步骤:引导错误诱导、引导分析生成、无引导分析微调和引导响应生成。通过分析错误输出并理解内部原因,LLM可以更好地遵循用户指令,从而提高其对有害内容的抵抗力。实验结果表明,与传统的基于人类反馈的模型相比,Gaining Wisdom from Setbacks方法可以显著提高LLM的安全性能。 总的来说,这两种方法都旨在使LLM能够从自己的错误中学习,从而提高其性能和安全性,为构建更智能、更安全的AI系统提供支持。
大语言模型如何自我改进? 错误分析如何帮助大语言模型? 大语言模型如何通过自我进化实现持续学习?
客服
商务合作
小程序
服务号
折叠