当前位置:首页 > 报告详情

华为-徐传飞-MindSpore大模型实践.pdf

上传人: 张** 编号:155733 2024-02-15 39页 5.42MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文主要介绍了MindSpore大模型实践的相关内容。 1. MindSpore已孵化26+个Transformer类大模型,包括鹏程·盘古α、紫东·太初、清华·CodeGeeX等。 2. MindSpore已支持的业界大模型包括GPT-3、Megatron-530B、GShard-M4等,其中GPT-3参数量达到175亿。 3. MindSpore典型大模型包括鹏程盘古、华为云盘古NLP、清华GLM等,其中鹏程盘古参数量达到200亿。 4. MindSpore大模型训练面临内存墙、性能墙、效率墙、调优墙等挑战,通过自动并行AI编译器、拓扑感知调度等技术创新实现大模型训练。 5. MindSpore Lite支持大模型部署,包括分布式推理、模型压缩、服务化部署等。 6. MindSpore大模型使能套件提供易用高性能的Transformer大模型,包括MindFormers、MindDiffusion、MindPet等。 7. MindSpore大模型在对话系统、内容创作、搜索引擎等领域具有广泛应用前景。
华为MindSpore大模型技术如何实现自动并行AI编译器? MindSpore大模型训练中如何解决内存墙和性能墙问题? MindSpore大模型如何实现万亿参数模型的工业化应用?
客服
商务合作
小程序
服务号
折叠