当前位置:首页 > 报告详情

07-Fine-tuning LLM with Argo Workflows - A Kubernetes-native Approach-Shuangkun Tian.pdf

上传人: 张** 编号:621015 2025-03-31 18页 1.03MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文主要介绍了使用Argo工作流进行大规模语言模型(LLM)的微调方法。作者Shuangkun Tian,Argo维护者,同时也是阿里云软件工程师,阐述了微调的挑战,包括计算资源需求大、设备异构(CPU、GPU、DPU)、计算成本高昂、工作流复杂等问题。针对这些问题,作者强调了Argo工作流的优点,如与Kubernetes原生集成、可扩展性、可复现性、容错性、易用性等。 作者以构建基于DeepSeek的中医药助手为例,详细介绍了使用Argo工作流进行LLM微调的流程,包括数据准备、模型下载、训练和评估等步骤。在阿里巴巴云上,通过ACK Argo工作流示例,展示了如何降低成本、提高效率以及实现自动化任务编排。 总之,本文表明使用Argo工作流进行LLM微调是一种有效的解决方案,能够节省成本、提高研发效率,并实现工作流的自动化和规模化。
"ArgoWorkflows在LLM微调中的优势是什么?" "如何在Kubernetes上使用ArgoWorkflows进行模型微调?" "基于DeepSeek的中医药助手微调有哪些挑战和解决方案?"
客服
商务合作
小程序
服务号
折叠