当前位置:首页 > 报告详情

李笙维 DataFunSummit非数据中心GPU上的大模型并行训练.pdf

上传人: 张** 编号:177548 2024-10-01 33页 4.17MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文主要围绕非数据中心GPU上的大模型并行训练问题展开研究。首先,作者从研究背景出发,指出深度学习模型参数量爆炸式增长,对算力系统体系结构、系统软件提出了新的要求,大规模并行与分布计算仍然是基础模型训练的主要手段。接着,作者详细介绍了并行训练的基本方法,包括数据并行、模型并行、张量并行、流水线并行以及混合并行等。然后,作者提出了针对非数据中心GPU上的大模型并行训练的关键技术研究,包括高性价比的大模型训练、高效率的并行训练以及高可编程性的并行训练。最后,作者总结了研究进展,并展望了未来的研究方向。
大模型训练如何提高性价比? 非数据中心GPU如何实现高效并行训练? 如何提高大规模并行训练的可编程性?
客服
商务合作
小程序
服务号
折叠