《AI服务器行业报告:大模型算力需求驱动AI服务器行业高景气-230405(28页).pdf》由会员分享,可在线阅读,更多相关《AI服务器行业报告:大模型算力需求驱动AI服务器行业高景气-230405(28页).pdf(28页珍藏版)》请在三个皮匠报告上搜索。
1、2022年4月5日 AI服务器行业报告大模型算力需求驱动AI服务器行业高景气行业评级:看好分析师刘雯蜀分析师李佩京证书编号S1230523020002证书编号S1230522060001证券研究报告添加标题95%摘要21、算力场景向AI升级,CPU+GPU是核心服务器随着场景需求经历通用服务器-云服务器-边缘服务器-AI服务器四种模式,AI服务器采用GPU增强其并行计算能力;AI服务器按应用场景可分为训练和推理,训练对芯片算力的要求更高,根据IDC,随着大模型的应用,2025年推理算力需求占比有望提升至60.8%;AI服务器按芯片类型可分为CPU+GPU、CPU+FPGA、CPU+ASIC等组
2、合形式,CPU+GPU是目前国内的主要选择(占比91.9%);AI服务器的成本主要来自CPU、GPU等芯片,占比25%-70%不等,对于训练型服务器其80%以上的成本来源于CPU和GPU。2、ChatGPT等大模型训练和推理需求激增驱动AI服务器市场高速增长据ARK Invest预测,Chat GPT-4参数量最高达15000亿个,由于参数量与算力需求间存在正比关系,所以可推算GPT-4算力需求最高达到31271 PFlop/s-day。随着国内外厂商加速布局千亿级参数量的大模型,训练需求有望进一步增长,叠加大模型落地应用带动推理需求高速增长,共同驱动算力革命并助推AI服务器市场及出货量高速增
3、长。3、国产芯片推理接近国际一流水平,国产AI服务器有望受到下游需求拉动美国对中国禁售英伟达高性能芯片A100和H100,英伟达特供中国的削弱互联带宽的版本A800或为当前可替代方案;以海光信息、壁仞科技等为代表的国产GPU部分单卡指标接近英伟达,在推理场景中具有一定竞争力;国产AI服务器厂商全球份额超35%,浪潮信息位列榜首;国产AI服务器厂商各具优势,有望受到下游需求拉动;4、建议关注:浪潮信息、中科曙光、拓维信息、工业富联、神州数码、紫光股份风险提示31、国外制裁范围扩大的风险;2、国内厂商发展不及预期的风险;3、下游市场需求不及预期的风险;4、版权、伦理和监管风险等;1、算力场景向AI
4、演进,CPU+GPU是AI服务器的核心部件4AI服务器:算力场景转向AI,加入GPU的AI服务器应运而生资料来源:立尔讯、陆零网络、亿速云、聚英电子、蓝卡科技、浙商证券研究所通用服务器云服务器边缘服务器AI服务器PC单机云架构加入边缘层GPU增强并行计算能力提供计算服务的硬件设备,位置相对固定;将规模级的底层服务器通过集约化、虚拟化来构建云端资源池,并从资源池中调配计算资源组建而成;将终端采集的数据,交由本地的网关设备直接进行处理后,再上传到云端,使应用程序、数据和计算能力更接近用户;采用异构形式,通过加入GPU采用并行计算模式,解决CPU提供算力时核心数已接近极限的问题,可应用处理密集型运算
5、;支持资源的弹性调配,具有扩展性和灵活性,采用分布式存储;减少网络传输资源的消耗,满足对实时性的要求,解决安全和隐私问题;采用GPU并行计算提高算力;介绍优势1.1分类:按应用场景可分为训练和推理,训练对算力要求更高资料来源:浪潮信息官网、IDC、电子发烧友、浙商证券研究所训练推理概念指借助已有的大量数据样本进行学习,获得诸如更准确的识别和分类等能力的过程;对于新的数据,使用经过训练的算法完成特定任务算力要求要求训练芯片应具有强大的单芯片计算能力对算力的要求较低部署位置训练芯片大多部署于云端推理芯片大多会部署于云端和边缘侧中国AI服务器推理和训练工作负载情况及预测 AI服务器按应用场景可分为训
6、练和推理两种,2021年中国AI服务器推理负载占比约55.5%,未来有望持续提高;训练对芯片算力要求更高,推理对算力的要求偏低;59.1%48.5%44.5%43.5%41.5%39.3%39.2%40.9%51.5%55.5%56.5%58.5%60.7%60.8%0%20%40%60%80%100%2019A2020A2021A2022E2023E2024E2025E训练推理1.2 91.9%6.3%1.5%0.3%GPUNPUASICFPGA分类:按芯片类型可分为GPU、FPGA、ASIC等资料来源:浪潮信息官网、宽泛科技、CSDN、51CTO、浙商证券研究所 AI服务器采用异构形式,按