当前位置:首页 > 报告详情

程稳-基于之江天目的大模型分布式并行训练软硬件协同优化技术介绍.pdf

上传人: 张** 编号:155742 2024-02-15 40页 9.59MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文主要介绍了之江天目的大模型分布式并行训练软硬件协同优化技术。之江天目面临的主要挑战包括高能效、千卡规模线性加速比和生态建设。为解决这些问题,之江天目采用了软硬件“全栈”协同优化的方法,包括芯片、网络拓扑及分布式规约算法的协同设计,高速互联架构,以及模型训练的优化。 之江天目支持了多种大模型,如Bert-Large、GPT2、ESM源1.0等,并实现了线性度可达0.95+的高速互联架构。此外,之江天目还实现了面向前向传播的offloading技术,显著提升了GPU与CPU的计算资源与存储资源的协同利用率。 之江天目还支持了多种AI框架,如PyTorch、TensorFlow和天枢框架,以及多种模型并行和流水并行方法。此外,之江天目还实现了内存优化、混精支持和算子支持。 之江天目还采用了液冷技术,包括冷板液冷和高速互联架构,以提高能效和线性加速比。 总的来说,之江天目通过软硬件协同优化,实现了高能效、高线性度、多租户低PUE的分布式并行加速,支持了大规模语言模型架构,如Megatron、DeepSpeed和FairScale,以及多种AI框架和模型训练优化方法。
之江天目如何实现高能效? 之江天目如何支持大模型训练? 之江天目如何实现软硬件协同优化?
客服
商务合作
小程序
服务号
折叠