1、2023 年深度行业分析研究报告 目目 录录 一、一、AI 有望明显拉动算力基础设施投资有望明显拉动算力基础设施投资.1 1.1ChatGPT 爆红引发了人们对于人工智能发展的高度关注.1 1.2 人工智能需要强大算力支撑.2 1.3AI 算力产业链涉及环节较多,行业需求有望全面提升.3 二、二、AI 芯片需求爆发式增长芯片需求爆发式增长.5 2.1 AI 大规模落地应用对 AI 芯片性能、数量提出全方位要求.5 2.2 英伟达龙头地位稳固,国内厂商正逐步追赶.23 2.3 先进封装成为高性价比替代方案,存算一体应用潜力巨大.30 三、三、AI 服务器渗透率快速提升服务器渗透率快速提升.40
2、3.1 AI 服务器是算力基础设施最主要的硬件,训练型主要成本来自于 GPU 芯片.40 3.2 AI 服务器市场规模有望保持高速增长,当前订单饱满.43 3.3 AI 服务器市场集中度有望提升,国内厂商呈现一超多强格局.45 3.4 全球服务器市场规模预计保持平稳.47 3.5 标的推荐.47 四、四、AI 正在推动高速率光模块需求放量正在推动高速率光模块需求放量.49 五、五、AI 将会拉动交换机市场需求将会拉动交换机市场需求.59 六、六、AI 提升大功率提升大功率 IDC 机柜需求,液冷渗透率随之提升机柜需求,液冷渗透率随之提升.62 6.1“东数西算”统筹全国算力网络建设,云计算需求
3、可能将回暖.62 6.2 AI 大算力服务器需要高功率机柜,液冷或成必选项.64 6.3 人工智能算力需求有望推动海底数据中心规模化发展.68 七、海外大模型进展七、海外大模型进展.74 7.1 谷歌.74 7.2 微软.79 7.3Meta.82 图表目录图表目录 图表 1:AIGC 发展历程.1 图表 2:国内外公司 AIGC 相关产品.2 图表 3:GPT 模型示意图.2 图表 4:NVIDIA DGX A100 AI 服务器.2 图表 5:全球算力规模及增速.3 图表 6:我国算力规模及增速.3 图表 7:全球 AI 服务器市场规模测算.4 图表 8:中国 AI 服务器市场规模测算.4
4、 图表 9:光模块和交换机速率演进示意图.5 图表 10:CPU+AI 芯片的异构计算.6 图表 11:2021 年中国 AI 芯片市场规模占比.6 图表 12:CPU 与 GPU 架构对比.6 图表 13:NVIDIA GPU 主要产品线.7 图表 14:NVIDIA Fermi 架构至 Hopper 架构的变化.7 图表 15:低精度比特位宽为 AI 计算带来的好处.8 图表 16:不同精度计算消耗的能量和硅片面积.8 图表 17:NVIDIA 数据中心 GPU 支持的比特位宽变化.8 图表 18:V100 中 FP32 硬件单元和 FP64 硬件单元的数量关系.8 图表 19:专门的硬件
5、单元 Tensor Core 加速矩阵乘加计算.9 图表 20:A100 与 H100 的 FP16 Tensor Core 吞吐量对比.9 图表 21:FP16 Tensor Core 与 FP8 Tensor Core 吞吐量对比.9 图表 22:FP16 Tensor 算力快速增长.10 图表 23:FP16 Tensor 每单位核心的算力明显优于 FP16.10 图表 24:AI 训练服务器需要更高的内存容量.10 图表 25:NLP 负载中存储和计算的能量消耗占比.10 图表 26:GDDR 与 HBM 差异.11 图表 27:语言模型的参数数量呈指数级增长.11 图表 28:GPU
6、 之间通过 PCIe 连接.12 图表 29:GPU 之间通过 NVLink 连接.12 图表 30:NVLink 1.0NVLink 4.0.12 图表 31:NVSwitch 连接多颗 GPU.13 图表 32:NVSwitch 支撑的 GPU 计算集群.13 图表 33:NPU 典型架构.14 图表 34:麒麟 970 NPU 加速图像识别.14 图表 35:脉动阵列运行矩阵乘法的示意图.14 图表 36:谷歌 TPU 架构及其内部的脉动阵列.15 图表 37:谷歌 TPU.15 图表 38:Tesla FSD 搭载 NPU 模块.15 图表 39:AI 训练与 AI 推理对比.16 图