当前位置:首页 > 报告详情

03-面向 LLM 的高效计算:基于昇腾硬件和 Volcano 的软硬协同优化 -Shuqiao LiZicong Chen.pdf

上传人: 张** 编号:620996 2025-03-31 37页 2.34MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文主要探讨了面向大型语言模型(LLM)的高效计算方法,重点关注了基于昇腾硬件和Volcano的软硬协同优化。文章指出,随着LLM模型规模不断扩大,计算需求激增,分布式训练和推理成为关键。为此,昇腾NPU生态提供了全面支持,包括针对NPU的亲和性调度、跨节点网络拓扑感知调度等。同时,Volcano AI生态北向支持TensorFlow、PyTorch等主流训练框架,南向支持vGPU/MIG调度和昇腾NPU调度。此外,Volcano还定义了新的CRD HyperNode来表示网络拓扑,提供标准化的API接口,以优化训练/推理任务网络通信效率。文章还提到了vLLM Ascend项目和verl库,它们为在大模型推理和训练方面提供了高效支持。最后,文章展望了未来发展方向,包括持续优化调度功能、支持更细粒度的网络拓扑感知调度等。
"昇腾NPU如何实现高效计算支持?" "Volcano如何优化AI模型训练与推理?" "AI负载管理在生产环境中如何实践?"
客服
商务合作
小程序
服务号
折叠