当前位置:首页 > 报告详情

MFTcoder:大模型多任务微调框架-余航 .pdf

上传人: 张** 编号:181058 2024-09-27 26页 6.05MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
CodeFuse-MFTcoder是一个大模型多任务微调框架,旨在提高AI在软件开发生命周期中的全场景能力,包括需求分析、编程开发、测试与构建、发布与运维、数据洞察。该框架采用四大关键技术:程序分析校验技术Sparrow、分布式和算法分离训练框架ATorch、多任务微调对齐框架MFTCoder、多重部署优化技术Maya。特别是MFTCoder,它通过多任务指令微调,实现任务间的相互促进,减少资源消耗,并能泛化到未见过的任务。实验结果显示,MFT模型在代码补全、注释生成、代码翻译、单测用例生成等任务上均优于单一任务微调模型和混合任务微调模型,同时在自然语言任务上也表现出轻微的提升。CodeFuse-MFTcoder的多任务处理能力、高效tokenization与微调技术以及多底座模型支持,使其在多个编程任务上取得了显著的性能提升。
"CodeFuse如何实现全生命周期AI原生软件开发?" "MFTcoder如何通过多任务微调提高大模型表现?" "CodeFuse在自然语言任务上的表现如何?"
客服
商务合作
小程序
服务号
折叠