《AI服务器行业深度:驱动因素、竞争格局、产业链及相关公司深度梳理-250120(38页).pdf》由会员分享,可在线阅读,更多相关《AI服务器行业深度:驱动因素、竞争格局、产业链及相关公司深度梳理-250120(38页).pdf(38页珍藏版)》请在三个皮匠报告上搜索。
1、 1/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 行业研究报告 慧博智能投研 AI服务器服务器行业深度:驱动因素、行业深度:驱动因素、竞争格局竞争格局、产业链及相关公司深度梳理产业链及相关公司深度梳理 随着全球生成式 AI 技术的迅猛发展,AI 服务器作为算力的关键基础设施,正迎来前所未有的发展机遇。AI 服务器凭借其强大的并行处理能力和高效的异构计算架构,成为满足大规模数据处理、模型训练和推理计算需求的核心设备。从大模型训练到多模态 AI 应用的兴起,算力需求的激增推动了 AI 服务器市场的快速增长。同时,政策支持、技术升级以及产业链的不断完善,进一步加
2、速了行业的变革与发展。无论是上游的芯片、存储、PCB 等零部件供应商,还是中游的 ODM 与品牌服务器厂商,亦或是下游的互联网巨头、云服务提供商等应用市场,整个 AI 服务器产业链都在这一浪潮中展现出巨大的潜力与活力。本文将聚焦于 AI 服务器,对其行业进行全面的概述,并分析推动 AI 服务器发展的关键因素。同时,我们将根据最新的市场动态,探讨 AI 服务器产业链发生的变革。此外,本文还将分析当前的市场格局,并列举在该领域活跃的相关公司。希望通过这些内容的阐述,能够加深大家对 AI 服务器行业的认识和理解。目录目录 一、行业概述.1 二、驱动因素.3 三、AI 服务器制造及动态.8 四、产业链
3、分析.13 五、市场格局及预测.29 六、相关公司.31 七、参考研报.37 一、行业一、行业概述概述 1、AI 服务器定义及架构服务器定义及架构 AI 时代来临,服务器性能面临挑战。时代来临,服务器性能面临挑战。服务器是一种高性能计算机,作为网络的节点,存储、处理网络上 80的数据。服务器比普通计算机运行更快、负载更高、价格更贵,具有高速 CPU 运算能力、更高的可靠性、更强的 I/O 外部数据吞吐能力以及更好的扩展性。服务器内部结构与普通计算机相差不大,都是由 CPU、硬盘、内存、系统、系统总线等部分组成,按应用场景分类可分成存储服务器、云服务器、AI 服务器和边缘服务器。通用型服务器主要
4、以 CPU 为算力来源,优化了单线程性能和通用计算任务,而非针对并行处理,主要采用提高核心数来提升算力。随着 AI 技术的发展,数据量呈几何倍增长,需要大量并行处理能力来训练和推理,导致通用型服务器难以满足日益增长的算力需求。2/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 AI 服务器是指专为人工智能应用设计的高性能计算机设备。服务器是指专为人工智能应用设计的高性能计算机设备。相较于通用型服务器,AI 服务器有以下特点:1)硬件架构:AI 服务器采用异构计算架构,通过异构形式适应不同应用范围以及提升服务器的数据处理能力,异构方式包括 CPU+GPU/TPU
5、/ASIC/FPGA,目前广泛使用的 AI 服务器为 CPU+GPU;2)GPU 数量:通用型服务器一般采用一个或两个 GPU,AI 服务器需要承担大量的计算,一般配置四块GPU 以上;3)设计不同:AI 服务器由于有多个 GPU,需要针对系统结构、散热、拓扑等做专门设计。以上特点使得 AI 服务器拥有更强的并行处理能力、更快的处理速度和更大的存储空间,能够支持大规模数据处理、模型训练、推理计算等复杂任务。2、AI 服务器服务器分类分类 目前,目前,AI 服务器产品种类较多。服务器产品种类较多。按应用场景分,按应用场景分,AI 服务器分为训练和推理两种。服务器分为训练和推理两种。它既可以用来支
6、持本地应用程序和网页,也可以为云和本地服务器提供复杂的 AI 模型和服务。AI 服务器有助于为各种实时AI 应用提供实时计算服务。AI 服务器按应用场景可分为训练和推理两种,训练对芯片算力要求更高,推理对算力的要求偏低。推理负载占比有望持续提升。3/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 AI 服务器采用异构形式,按芯片类型可分为 CPU+GPU、CPU+FPGA、CPU+ASIC 等组合。目前 GPU依然是实现数据中心加速的首选,其他非 GPU 芯片应用逐渐增多。二、驱动因素二、驱动因素 1、大模型推动全球算力需求激增,算力厂商迎来发展机遇、大模型推
7、动全球算力需求激增,算力厂商迎来发展机遇 ScalingLaws:大模型训练的重要指导法则,规模越大模型效果越优。:大模型训练的重要指导法则,规模越大模型效果越优。据 OpenAI 发布的论文Scaling laws for neural language models,模型性能极大依赖训练规模,模型参数、数据集大小以及用于训练的计算量增加可以达到减少模型损失,增加大模型性能的效果。4/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 “涌现涌现”能力:随着训练规模不断增大,大模型将产生质变。能力:随着训练规模不断增大,大模型将产生质变。据Emergent Ab
8、ilities of Large Language Models,随着模型规模的扩大,语言模型表现出的新的、不可预测的能力。这些新能力在中小模型上线性放大都得不到线性的增长,但在模型规模突破一定阈值时突然出现。“涌现”能力反映了系统行为质的变化,这种变化不能简单地通过观察或分析较小规模模型的性能来预测。以以 AIGC 为代表的人工智能应用、大模型训练等需求兴起,推动全球算力需求快速增长。为代表的人工智能应用、大模型训练等需求兴起,推动全球算力需求快速增长。全球算力需求飙升主要基于以下原因:1)模型能力提升依赖更大的训练数据量和参数量,对应更高的算力需求;2)AI 模型的发展方向转向多模态,训练
9、模型的数据从单一文字数据发展到目前的图片、视频数据,均需要更强的算力处理;3)模型种类多样化(文生图、文生视频)以及新推出的模型数量激增,均推动算力需求的增长,以 AIGC 为代表的 AI 应用用户数量爆发,推理侧算力需求快速增长。5/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 模型参数迅速提升,算力竞争愈演愈烈。模型参数迅速提升,算力竞争愈演愈烈。近年来新推出的大语言模型所使用的数据量和参数规模呈现指数级增长,GPT3 模型参数约为 1750 亿,GPT-4 参数量达 1.8 万亿,国内目前公布的大模型参数规模也普遍在百亿至千亿级别,未来的算力竞赛还将持
10、续。算力需求催化投资,算力厂商率先受益。算力需求催化投资,算力厂商率先受益。根据李飞飞团队发布的人工智能指数报告估算,OpenAI的 GPT-4 使用了价值约 7800 万美元的计算资源进行训练,而谷歌的 GeminiUltra 耗费了 1.9 亿美元的 6/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 计算成本,2024 年 3 月,微软和 OpenAI 宣布计划投资 1000 亿美元打造星际之门 AI 超算,全球算力投资迅速提升,算力厂商或将率先受益。2、以以 AI 服务器为代表的全球智能算力需求激增服务器为代表的全球智能算力需求激增 算力可分为通用算力
11、、智能算力以及超算算力:1)通用算力:由基于 CPU 的服务器提供算力,主要用于基础通用计算;2)智能算力:由基于 GPU、FPGA、ASIC 等 AI 芯片的加速计算平台提供的算力,主要用于人工智能训练和推理计算;3)超算算力:由超级计算机等高性能计算集群提供算力,主要用于尖端科学领域的计算。早期通用算力占整体算力的比重达 90%以上,随着人工智能技术的发展,智能算力规模迅速增长。IDC 预期,2023 年中国智能算力规模达 414.1EFLOPS,至 2027 年将达1117.4EFLOPS。据中国信息通信研究院预期,2030 年全球智能算力规模将达 52.5ZFLOPS。受益于智能算力市
12、场的推动,全球受益于智能算力市场的推动,全球 AI 服务器市场规模实现快速增长。服务器市场规模实现快速增长。据 TrendForce 数据,预计 2024年全球 AI 服务器市场规模为 1870 亿美金,同比+69%;从服务器占比来看,预计 24 年 AI 服务器占比 7/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 为 12.2%(出货量维度),同比+3.4 个 pct。2023 年 AI 服务器出货量 118 万台,至 2026 年 AI 服务器出货量将至 237 万台,对应 23-26 年 CAGR 为 26.05%。假设单台 AI 服务器价值量为 2
13、5 万美金,则26 年 AI 服务器市场规模为 5922.5 亿美金。3、政策支持亦将拉动中国、政策支持亦将拉动中国 AI 服务器市服务器市场规模增长场规模增长 政策政策+需求拉动中国需求拉动中国 AI 服务器市场规模增长。服务器市场规模增长。在当前数字经济时代背景下,国家出台多个政策支持 AI产业发展,AI 服务器行业保持快速增长。相关企业加速布局以及人工智能应用场景的逐步落地,算力需求量快速增长,AI 服务器在服务器整体市场中比重提高。中国的企业和研究机构积极进行人工智能服务器的技术研发和创新,包括高性能处理器、大容量内存、高速存储器和高效冷却系统等领域的创新,以满足计算能力和数据处理速度
14、的需求。中国中国 AI 服务器市场规模同样将实现快速增长,服务器市场规模同样将实现快速增长,AI 服务器工作负载将由训练逐步过渡到推理。服务器工作负载将由训练逐步过渡到推理。据 IDC数据,2023 年中国 AI 服务器出货量达 32.2 万台,预计到 2027 年将达到 80.9 万台,对应 CAGR 达25.9%;对应到 2023 年 AI 服务器市场规模为 60.8 亿美元,预计到 2027 年将达到 134 亿美元,对应CAGR 达 21.8%。从工作负载来看,2023 年训练服务器占比达 58.7%。随着训练模型的完善与成熟,模型和应用产品逐步进入投产模式,处理推理工作负载的人工智能
15、服务器占比将随之攀升,到 2027 年,用于推理的工作负载将达到 72.6%。8/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 三三、AI 服务器服务器制造制造及动态及动态 1、AI 服务器制造厂商服务器制造厂商 AI 服务器制造参与厂商众多,主要分为 ODM 厂商与品牌服务器厂商。ODM 厂商主要负责将 GPU 等部件组装为 GPU 服务器/机柜,在主板设计、供应链整合、制造代工等环节提供溢价。再送至品牌服务器厂商处销售,或者是 ODM 厂商不通过品牌服务器厂商直接与下游(通常是 CSP)客户合作。ODM 代表厂商包括鸿海精密、工业富联(鸿海子公司)、英业
16、达、广达电脑、纬创资通、Supermicro等。与云端业者、上游芯片厂商深度绑定,有稳定的供应链、快速交付能力、较低售价等优势。基于低成本和快速部署服务器以建设大规模数据中心的考量,近年云端业者与 ODM 厂商合作日益频繁。以工业富联为例,该公司是英伟达 A100、H100 板卡的独家供应商,同时也是最新的 GPU HPC 平台的独家设计生产交付供应商。品牌服务器厂商通过自主设计服务器整体解决方案提供溢价。品牌厂商方面,AI 服务器代表厂商包括戴尔、超微电脑、HPE、甲骨文、惠普、联想集团、浪潮信息、新华三、宁畅、超聚变、中科曙光、拓维信息等。品牌厂商拥有服务器方案自主设计能力与核心技术专利。
17、此前委托 ODM 代工厂商生产标准化服务器产品,再对外进行销售,不过随着云计算、AI 需求不断增加,部分品牌服务器厂商也逐渐开始生产定制化产品,与 ODM 厂商形成了既合作又竞争的关系。此外,英伟达提供 AI 服务器参考设计,产业链话语权较高。GB200NVL 机柜交付模式下,英伟达对于整机产品定义能力更强,价值量向运算主板、交换机主板设计,以及机柜设计倾斜。2、高端高端 AI 服务器形态发生变化,产业链将得到重塑服务器形态发生变化,产业链将得到重塑 9/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 2025 年市场对于高阶年市场对于高阶 AI 服务器需求仍
18、强,尤其以英伟达新一代服务器需求仍强,尤其以英伟达新一代 Blackwell 将取代将取代 Hopper 平台成平台成为市场主流,且出货形式有望从为市场主流,且出货形式有望从 8 卡卡 HGX 服务器向机柜转移。服务器向机柜转移。Hopper 到到 Blackwell,服务器系统多元变化,服务器系统多元变化。英伟达从 2006 年进军 AI 计算之后,其计算架构基本保持两年一代的迭代速度。从初代 Tesla 架构到最新的 Blackwell 架构,芯片晶体管密度不断增大,并行计算能力不断提升,针对 AI 计算不断优化,互联能力持续升级。2024 春季 GTC 上,英伟达 CEO 黄仁勋正式推出
19、了 Blackwell 计算架构,以出众的性能、效率和规模揭开了生成式 AI 领域的新篇章。英伟达英伟达 Blackwell 架构的服务器出货形态较架构的服务器出货形态较 Hopper 发生较大变化。发生较大变化。从产品体系来看,目前Blackwell 系列产品包括超级芯片 GB200 对应的机柜级产品、高性能 HGX 系统 HGX B100/B200 等。Blackwell 拥有 2080 亿个晶体管,是 NVIDIA Hopper GPU 晶体管数量的 2.5 倍以上,并使用台积电(TSMC)为 NVIDIA 量身定制的 4NP 工艺制造,单芯片算力高达 20petaFLOPS。B200
20、将两个晶片合并为一个 GPU,显著提升了计算能力,并通过单一的、速度为 10TB/s 的高带宽接口 NV-HBI 连接。GB200 超级芯片由 2 颗 BlackwellGPU 和 1 颗 GraceCPU 组成,并通过 NVlink-C2C 进行连接,提供900GB/s 双向带宽。在 GB200 超级芯片的基础上,还设计了 GB200NVL72 集群。GB200NVL72 以机架级设计连接 36 个 GraceCPU 和 72 个 BlackwellGPU,是一款液冷式机架级解决方案。而 Hopper 系列产品则包括 HGX H200/H100 系统和 GH200。HGX H200/H100
21、 为配置了 8 个 GPU 的服务器产品。10/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 预计机柜级产品将成为预计机柜级产品将成为 2025 年年 Blackwell 架构产品出货的主要形式。架构产品出货的主要形式。鸿海发言人曾在法说会上回应,将在 2024 年第四季度小量生产 GB200 服务器,2025 年大量出货;鸿海年度科技日上,董事长刘扬伟表示市场对 Blackwell 芯片的需求达到“疯狂程度”,计划到 2025 年产能达到 20000 台英伟达 NVL72 机柜。GB200 超级芯片将 CPU 和 GPU 都位于同一块 PCB 板上,降低了
22、插入损耗,提升了 CPU 和 GPU之间的通讯能力;GB200NVL72 引入了尖端功能和第二代 Transformer 引擎,支持 FP4AI,与第五代NVIDIA NVLink 结合使用时,可为万亿参数语言模型提供 30 倍的实时 LLM 推理性能;与 NVIDIA H100 风冷基础设施相比,GB200 在相同功率下可以提供 25 倍的性能。因此对于 Blackwell 架构,GB200 机柜级产品在算力、连接、功耗方面较 8GPU HGX 服务器更具有性价比,将成为未来的主要出货形式。英伟达英伟达 GB200 机柜预计将推出机柜预计将推出 4 种外形尺寸。种外形尺寸。除 GB200NV
23、L72 形式的机柜外,根据 semianalysis,英伟达还推出了 GB200NVL36*2,GB200NVL36x2(Ariel)和 x86B200NVL72/NVL36x2 形态,为客户提供更多选择。具体来看:GB200NVL72:每个机架大约 120kW 功率,由 18 个 1U 计算托盘和 9 个 NVSwitch 托盘组成。每个计算托盘高度为 1U,包含 2 个 Bianca 板。每个 Bianca 板由 1 个 GraceCPU 和 2 个 BlackwellGPU 组成。NVSwitch 托盘包含两个 28.8Tb/sNVSwitch5ASIC。11/38 2025 年年 1
24、月月 20 日日 行业行业|深度深度|研究报告研究报告 GB200NVL36*2:是两个并排互连的机架,每个机架包含 18 个 GraceCPU 和 36 个 BlackwellGPU。每个计算托盘高 2U,包含 2 个 Bianca 板。每个 NVSwitch 托盘都有两个 28.8Tb/sNVSwitch5ASIC 芯片。每个 NVSwitch 托架都有 18 个 1.6T 双端口 OSFP 壳体,可水平连接到一对 NVL36 机架。每个机架的功率和冷却密度为每机架 66kW,总共为 132kW。NVL36 版本预计将成为无法支持机架密度 120kW 数据中心的首选。GB200NVL36*
25、2(Ariel):在 NVL36x2 的基础上,将计算托盘中的 Bianca 板替换为 Ariel 板,包含 1 个GraceCPU 和 1 个 BlackwellGPU。这一机架主要由 Meta 用于推荐系统训练和推理工作负载,这类任务对 CPU 内核要求更高。x86B200NVL72/NVL36x2:或将于 2025 年二季度推出,用 x86CPU 替代原本 GB200 中的 GraceCPU。在在 HGX、DGX 平台基础上,面向平台基础上,面向 GB200 机柜,英伟达预计还将推出机柜,英伟达预计还将推出 MGX 版本,给予版本,给予 CSP 厂商厂商定制空间,扩大用户的选择面。定制空
26、间,扩大用户的选择面。DGX 为英伟达标准化平台,不支持定制,DGX GB200 机柜预计将由英伟达直接向客户销售,主要客户群体包括中小数据中心、主权数据中心等。MGX 提供模块化参考设计,OEM 和 ODM 合作伙伴可以用不同的用例构建定制的解决方案,允许 GPU、CPU、DPU 的不同配置,包括 Grace、x86 或其他 ArmCPU。MGX 的主要客户群体为大型 CSPs。HGX/DGX/MGX 三种模式在产业链分工上也略有差异。HGX 模式下,GPU 模组、板卡、服务器的制造环节几乎全部由 ODM 厂商进行,最终交付给品牌服务器厂商出货给不同客户;对于 DGX GB200 机柜,芯片
27、制造、封装环节完成后,由 ODM 厂商代工,将其组装为 Compute Board、Switch Board 等,再根据英伟达提供的标准,组装为机柜,并交付给英伟达,由英伟达出货给终端客户;对于 MGX GB200 机柜,ODM 完成 Compute Board、Switch Board 等环节的组装后即交付英伟达,再由英伟达将标准的模块化组件出货给服务器ODM 厂商,根据 CSP 的设计要求组装为机柜并交付。对于 GB200 机柜级产品,ODM 厂商的分工均较HGX 模式发生了变化,由于机柜本身价值量提升,技术难度相应增长,ODM 厂商贡献的价值也将随之提升。12/38 2025 年年 1
28、月月 20 日日 行业行业|深度深度|研究报告研究报告 GB200NVL 系列的发布,有望带来机柜、系列的发布,有望带来机柜、HBM、铜缆、液冷等市场的价值量占比提升。、铜缆、液冷等市场的价值量占比提升。展望英伟达下一代展望英伟达下一代 AI 服务器服务器 GB300。12 月 23 日中国台北经济日报报道,英伟达已初步确定了GB300 订单的配置情况,GB300 进入研发设计阶段,预计 2025 年三季度 GB300 实机将面市,其进度将领先全球同行。服务器设计变更包括:1)B300 将采用 LPDDR CAMMs 和 GPU 插座,以降低 GPU 故障成本和供应链风险;2)x86CPU 替
29、代方案,仍然需要 PCI-E 接口;3)机架总功耗提升至 130-140kW,包括1.4kWB300(相比 B200 为 1.2kW);4)可选择采用功率电容架和 BBU;5)GB300/300A 的零部件供应商更灵活选择。13/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 四四、产业链分析、产业链分析 AI 服务器产业链可分为上、中、下三部分:1)上游为零部件厂商,包括 CPU、GPU、存储芯片、固态硬盘、PCB、被动元器件等;2)中游为 AI 服务器厂商;3)下游为各类应用市场,包括互联网企业、云计算企业、数据中心服务商、政府部门、金融机构、医疗领域、电
30、信运营商等。14/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 AI 服务器方案以服务器方案以 GPU 和和 HBM 为核心,同时催生为核心,同时催生 PCB、光模块等硬件升级,孵化国产机遇。、光模块等硬件升级,孵化国产机遇。AI 服务器靠堆料高性能 GPU 和 HBM,呈现突出的异构计算能力。以英伟达 H100 为例,GPU+HBM 价值占比超 75%。同时,核心芯片的更新迭代推动了服务器平台配套升级,将为 PCB、光模块等国产领域带来转机。1、AI 服务器产业链上游服务器产业链上游(1)A 芯片:芯片:AI 服务器搭载服务器搭载 AI 芯片仍以芯片仍以
31、GPU 为主,英伟达占据绝对的供应地位为主,英伟达占据绝对的供应地位 AI 服务器搭载服务器搭载 AI 芯片仍以芯片仍以 GPU 为主,搭载为主,搭载 ASIC 芯片服务器占比有上升趋势。芯片服务器占比有上升趋势。当前主流的 AI 芯片包括 GPU、FPGA、ASIC 等,其中 GPU 是前期较为成熟的芯片架构,属于通用型芯片;ASIC 属于为AI 特定场景定制的芯片。由于 GPU 通用型较强、适合大规模并行运算,设计和制造工艺成熟,适用于高级复杂算法和通用性人工智能平台。由于 ASIC 根据产品的需求进行特定设计和制造的集成电路,能够更有针对性地进行硬件层次的优化,因此具有更高的处理速度和更
32、低的能耗;相比于其他 AI 芯片,ASIC 设计和制造需要大量的资金、较长的研发周期和工程周期。据 TrendForce 数据,预计 2024 年搭载 GPU 的 AI 服务器占比约为 71%,仍占据主导地位。而随着北美云服务商如亚马逊、Meta 等,以及国内云服务商如阿里、百度、华为等持续积极扩大自研 ASIC 方案,使得搭载 ASIC 服务器占整体 AI 服务器比重在 2024 年将提升至 26%。15/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 1)英伟达占据英伟达占据GPU绝对的供应地位绝对的供应地位 英伟达仍是搭载英伟达仍是搭载 GPU 的的 A
33、I 服务器的绝对芯片供应商。服务器的绝对芯片供应商。据 TrendForce 数据,单看 AI 服务器搭载 GPU的芯片供应商中,英伟达占据绝对的主导地位,2022-2024 年市占率均达到 85%以上。随着 AMD 发布Instinct 系列 AI 芯片并在 AI 服务器方面不断发力,其市占率有望从 2022 年的 5.7%上升至 2024 年的8.1%。Intel 在 AI 服务器芯片供应商中占比近年保持相对稳定,约占 3%左右。华为昇腾、摩尔线程等国内产品已比肩英伟达华为昇腾、摩尔线程等国内产品已比肩英伟达 A100,但离国际领先水平仍有差距。,但离国际领先水平仍有差距。1)华为昇腾产品
34、方面,据钛媒体 AGI 援引江苏鲲鹏 昇腾生态创新中心首席运营官王陶的观点,有近一半的中国大模型厂商选择了昇腾技术路线,与英伟达 A100 相比,华为昇腾能达到 0.8-1.2 倍的效率,尤其在训练 Meta Llama、BloomGPT 等模型上,昇腾 AI 算力训练效率已优于英伟达 A100。算力层面,目前华为已在全国 20 多个城市建设昇腾人工智能计算中心,构筑了超过 2500PFlops(每秒运算能力为 2500 千万亿次)16/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 的普惠 AI 算力。2)摩尔线程产品方面,2024 年 5 月,摩尔线程与智
35、谱 AI 开展了 GPU 大模型适配及性能测试,包括大模型推理以及基于夸娥(KUAE)千卡智算集群的大模型预训练。测试结果表明,在推理方面,摩尔线程自研全功能 GPU 显著优于基准对比产品 RTX3090 和 RTX4090,在全部测试用例中优于 RTX3090,在多 batch 下优于 RTX4090;在训练方面,摩尔线程夸娥千卡智算集群训练精度与A100 集群误差在 1%以内,夸娥千卡智算集群性能扩展系数超过 90%,模型算力利用率(MFU)与A100 集群相当。3)总体来说,国产 AI 芯片离国际领先水平仍有差距。GPU 核心器件助推配套软硬件升级,核心器件助推配套软硬件升级,AI 服务
36、器价值量显著增长。服务器价值量显著增长。服务器常包含计算、存储、IO、散热、PCB 等不同功能分区的模块,不同功能模块相互耦合、协同配合。服务器高精密、高耦合的特性意味着:GPU 成为核心器件触发了一系列的硬件和软件升级,以确保整个系统高效协同工作。2)牧本定律摆向定制化,关注国产牧本定律摆向定制化,关注国产ASIC服务商服务商 ASIC 专用集成电路是应特定用户的要求,或特定电子系统的需要,专门设计、制造的集成电路。根据下图显示,40 万片的产量是 ASIC 和 FPGA 成本高低的分界线,当产量大于 40 万片时,ASIC 的性价比相对 FPGA 更高。牧本摆动每十年波动一次,有望从标准化
37、摆向定制化。牧本摆动每十年波动一次,有望从标准化摆向定制化。1987 年,原日立公司总工程师牧本次生提出牧本摆动,揭露半导体产品发展历程总是在“标准化”与“定制化”之间交替摆动,大概每十年波动一次。牧本摆动背后是性能、功耗和开发效率之间的平衡,当算法发展达到平台期,无法通过进一步创新来推动发展时,就需要依赖于扩大规模来维持进步,这时转向 ASIC 的开发就变得至关重要。然而十年后,当规模扩张遭遇限制,又会重新聚焦于算法的创新,同时伴随半导体制造技术的进步,一些可编程解决方案在性价比上将会重新获得竞争优势。当前为了满足 CSP 客户更高性能和更好功能的需求,定制化芯片ASIC 的需求持续提升,牧
38、本钟摆从标准化逐渐摆向定制化。17/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 在博通 2024 财年报告中,公司 AI 业务营收达到约 122 已美元,同比增长 220%。同时,公司预计2027 年 AI 业务可达市场规模为 600-900 亿美元,客户有望在 AI 芯片集群中部署 100 万个芯片,当前公司已开始为三家头部 CSP 客户提供 ASIC。国内具备较强芯片定制服务能力的公司,有望在当前定制化 ASIC 芯片的趋势中收益。例如,翱捷科技基于丰富的设计经验及雄厚的技术积累,曾为全球领先的人工智能平台公司 S、登临科技、美国 Moffett等数家
39、知名人工智能技术企业提供先进工艺下的人工智能云端推理超大规模芯片定制服务。(2)存储:)存储:AI 服务器存储市场需求全方位升级,服务器存储市场需求全方位升级,HBM 为核心组件为核心组件 高性能高性能 AI 芯片对于存储容量和速率的要求水涨船高,服务器存储市场规模快速提升。芯片对于存储容量和速率的要求水涨船高,服务器存储市场规模快速提升。据 Technavio 测算,2024-2028 年,全球服务器存储市场规模将增加 876.6 亿美元,CAGR 达 27.06%。此外,美光表示,AI 服务器对 DRAM 和 NAND 的容量需求分别是通用服务器的 8 倍和 3 倍。18/38 2025
40、年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 AI 模型数据规模大、计算密集以及数据移动频繁,需要模型数据规模大、计算密集以及数据移动频繁,需要 AI 芯片和内存配合工作。芯片和内存配合工作。NAND 负责储备大量原始数据以及模型参数;DRAM 在开发和部署过程中高速读写数据,与 AI 芯片共同决定训练及推理速度。但 AI 芯片的性能以每年大约 55%速度快速提升,而 DRAM 性能的提升速度为每年 10%左右,不均衡的发展速度造成了内存的存取速度严重滞后于处理器的计算速度,因此形成“内存墙”和“带宽墙”。过去受困于高成本及性能溢出的过去受困于高成本及性能溢出的 HBM,能
41、有效突破内存墙,成为,能有效突破内存墙,成为 AI 服务器的近内存层的关键构成。服务器的近内存层的关键构成。HBM 是一种基于 TSV(硅通孔)及 3D 堆栈工艺的高性能 DRAM。多个 DRAM 芯片垂直堆叠高带宽接口(1024 位),与处理器集成封装,多个内存通道高频率运行,具有高带宽、高容量、低延时和低功耗的优势,成为 AI 服务器中 GPU 的搭载标配。HBM 技术升级带来全新需求与发展机遇。1)新技术:TSV 技术实现 DRAM 各层 Die 之间以及 HBM芯片与金属凸块之间的连接。2)新材料:液态塑封料或颗粒状环氧塑封料。3)新工艺:MR-MUF 工艺通过填充液态树脂保护芯片,利
42、用回流技术实现芯片的重新定位和连接。HBM 广泛应用于广泛应用于 AI 服务器方案,已成功导入多家厂商的高性能算力平台。服务器方案,已成功导入多家厂商的高性能算力平台。NVIDIA 以及 AMD 的主流方案普遍搭载了 HBM3 技术。此外,谷歌 TPUV5、以及 AWS 的 Trainium 和 Inferentia 芯片都使用了 HBM 技术,其新品有望搭载最新 HBM3 或 HBM3E 技术。从 HBM 用量来看,2024 年主流 H100搭载 80GB HBM3,到 2025 年英伟达 Blackwell Ultra 或 AMD MI350 等主力芯片,将搭载达 288GB 19/38
43、2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 的 HBM3e,单位用量成长逾 3 倍,AI 服务器市场需求持续强劲,有望带动 2025 年 HBM 整体供给量翻倍成长。HBM 市场规模增长潜力巨大,大厂发力新品研发与产能布局。市场规模增长潜力巨大,大厂发力新品研发与产能布局。据集微网转引 TrendForce 数据,24Q3全球 DRAM 市场规模达到 260.2 亿美元,环比+13.6%,HBM 强力驱动增长。同时得益于 HBM 取代传统 DRAM 生产,其 ASP 延续了 24Q2 的上升趋势,上升 8%至 13%。渗透率方面,据 TrendForce 预估,
44、2023 年 HBM 营收占 DRAM 约 8.4%,2024 年底将扩大至 20.1%,为此,各 HBM 制造商积极布局新的产能规划,HBM 与 DRR5 产能占比提升。20/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 HBM 市场由海力士、三星、美光垄断,其中海力士份额最高。市场由海力士、三星、美光垄断,其中海力士份额最高。根据 TrendForce,2022 年,SK 海力士占据 HBM 内存市场 50%的份额,三星占 40%,美光占 10%。2023 和 2024 年间,三星和 SK 海力士继续主导市场,两家公司的份额几乎相同,合计约为 95%,美
45、光的市场份额预计将在 4%至 7%之间徘徊。目前看,未来还是以三大家为主,因三星和美光的全力追赶,海力士的份额有所回落但依旧保持领先地位。(3)PCB:AI 服务器服务器 GPU 板组为板组为 PCB 带来全新机遇带来全新机遇 印制电路板(印制电路板(Printed Circuit Board,PCB)是指在绝缘基板上,有选择地加工安装孔、连接导线和装配电子元器件的焊盘,以实现电子元器件之间的电气互连的组装板。由于 PCB 可以实现电路中各元器件之间的电气连接,几乎任何一台电子设备都离不开它,它对电路的电气性能、机械强度和可靠性都起着重要作用,因此被称为因此被称为“电子产品之母电子产品之母”。
46、AI 服务器中的全新结构服务器中的全新结构 GPU 板组带来了全新硬件、计算、传输连接需求,从而推动板组带来了全新硬件、计算、传输连接需求,从而推动 PCB 需求全方位需求全方位升级。升级。首先首先,AI 服务器需要在传统 CPU 的基础上增加 GPU 板组,新增的 GPU 模组版带来 AI 服务器单机PCB 板使用量显著提升。其次其次,AI 服务器带宽显著提升,从而带来数据量的提升,这对 PCB 板的面积、层数、以及 CCL 材料的抗干扰、抗串扰、低损耗特性均提出了更高的要求,PCB 整体的性能得到显著的提高。再者再者,高算力性能的 GPU 同时也对连接通道和连接效率提出更高要求,这直接推动
47、了对高阶 HDI 板的需求。HDI 板的精细布线技术和高集成度,使其能够在有限的空间内实现复杂的电路设计,确保数据高速传输。AI 服务器需求量增长驱动的工艺方案提升同样带来 PCB 领域的增量需求。据据 Valuates Reports 预测,预测,AI 服务器服务器 PCB 的市场规模将从的市场规模将从 2023 年的年的 1 亿美元迅速增长到亿美元迅速增长到 2029年的年的 1.97 亿美元,亿美元,增长潜力巨大。鉴于 PCB 行业属于电子行业诸多细分领域中发展成熟度和市场竞争力相对靠前的板块,国内从业者有望捷足先登,率先受益于全球 AI 服务器的快速成长。21/38 2025 年年 1
48、 月月 20 日日 行业行业|深度深度|研究报告研究报告 国内国内 PCB 龙头厂商积极布局龙头厂商积极布局 AI 服务器服务器 PCB。按申万三级印制电路板行业,从 2023 年营业总收入排行前七位的国内上市公司来看,国内 PCB 龙头厂商积极布局 AI 服务器 PCB。22/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告(4)光模块:光模块:AI 数据中心的发展加速高速光模块的发展和应用数据中心的发展加速高速光模块的发展和应用 AI 大模型的训练和推理应用需要海量并行数据计算,对大模型的训练和推理应用需要海量并行数据计算,对 AI 服务器的网络带宽提出更大
49、的需求,服务器的网络带宽提出更大的需求,进而推升高速光模块需求。光模块是实现光信号传输过程中光电转换和电光转换功能的光电子器件,主要用于数据中心和高性能计算系统,提供高速、大容量的数据传输服务。随着数据中心和 HPC 系统在 AI 智能设备中的广泛应用,光模块加速从 800G 向 1.6T 演进。全球数据中心建设带动对光模块需求的持续稳定增长。全球数据中心建设带动对光模块需求的持续稳定增长。据财经三句半转引 LightCounting 预计,2024年以太网光模块的销售额增长近 30%,全球光模块市场未来 5 年的年均复合增长率将达 16%。同时人工智能集群中使用光连接加速了 1.6T 光模块
50、和 224GSerDes 的采用,LightCounting 将其出货量预测从2024 年的数万台提高到 2025 年的 100 万台。(5)铜连接:机柜方案有望成为主流,供应链份额提升前景广阔铜连接:机柜方案有望成为主流,供应链份额提升前景广阔 铜连接包含铜缆及连接器,在短距场景下,高速铜连接相较光纤连接具有性价比、稳定性、功耗优势,正成为 AI 集群短距传输优选方案。英伟达于 3 月发布 GB200 系列机架,其中背板连接、近芯片连接及机柜间 I/O 连接均用到铜连接方案。直连铜缆(Direct Attach Cable,DAC),或称 Twinax 铜缆、高速线缆,是一种固定长度、两端有
51、固定连接器的线缆组件。DAC 铜缆包含有源(active)和无源(passive)两种,有源 DAC 铜缆内置了放大器和均衡器,可以提升信号质量,但相对成本较高。大多数情况下,当传输距离小于 5 米时,可以选择使用无源 DAC 铜缆,而当传输距离大于 5 米时,可以选择有源 DAC 铜缆。DAC 铜缆上的连接器与光模块相比,接口类型相同,但缺少了昂贵的光学激光器和其他电子元件,因此可以大大节省成本和功耗,广泛应用于数据中心网络中的短距离连接。在 TOR 场景下,DAC 铜缆是进行机柜内短距离布线的最佳选择。在 EOR 场景下,如果传输距离小于10 米,也可以选择使用 DAC 铜缆。23/38
52、2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 DAC 电缆可分为两种类型:无源铜电缆(电缆可分为两种类型:无源铜电缆(PCC)和有源)和有源 DAC。有源 DAC 可以进一步分为有源铜线(ACC)和有源电缆(AEC)。无源和有源 DAC 电缆都可以通过铜线直接传输电信号。前者可以在没有信号调节的情况下进行传输,后者在收发器内部配备了电子设备以增强信号。ACC 有源铜线作为一种有源铜线,利用 Redriver 芯片架构,并采用 CTLE 均衡来调整 Rx 端的增益。本质上,ACC 的作用是作为一根有源电缆放大模拟信号。AEC 有源电缆代表了有源铜线电缆的一种更具创新
53、性的方法,AEC 利用 Retimer 芯片架构放大和均衡Tx 和 Rx 端子,而且重塑 Rx 端子处的信号。在英伟达 GB200NVL36/72 的机柜方案当中,需要实现 36 或 72 个 GPU 之间的高速通信。由于创新的机柜内集成的方式,考虑到成本、传输耗损和能耗等多方面因素,铜连接的方案是多个 GPU 近距离通信的最优解。因而英伟达 GB200NVL36/72 机柜中大量采用了铜线连接。由于每个 GPU 都直连入 18个 NVLink cartridge 端口,每个 NVLink 端口通过四条线束接到 NVSwitch 板。预计每个 GB200 机架装有 5,184 条铜缆线。除去计
54、算板之间、计算板与 Switch 交换机板之间的通信,每个计算板上还涉及铜连接跳线、MCIO 连接器、存储接口产品、PCIe 连接器和其他 I/O 接口产品包括 EDSFF 和 Gen-Z 连接器等。目前,NVLink cartridge 端口由美国安费诺公司独家供应,其中包含对分线束由安费诺下属公司安费诺时代微波,以及安费诺指定的上游厂商供应,如沃尔核材及鼎通科技;而鸿腾精密也在积极送样验证过程中。基于在传统服务器接口和连接器产品的优势,以及与母公司鸿海集团的紧密合作关系,鸿腾精密在计算板上连接产品方面已做到总计 500-1,000 美元单板价值量,在 2024 年三季度开始出货交付,并在
55、2025 年有进一步提升供应份额的空间。24/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 (6)液冷:接替风冷成为液冷:接替风冷成为 AI 数据中心主流冷却方案数据中心主流冷却方案 由于 AI 算力的提升导致的供电需求的明显增加,抬升了对于 TDP(散热设计功耗)的要求,使得传统以风扇为主的散热方案陷入瓶颈,液冷散热为 AI 算力集成系统的最佳方案。英伟达 GB200 的液冷组件主要包括冷板、集流管、背板热交换器(RDHx)和液冷分配单元(CDU)。CDU 用于调节服务器冷却系统和温度至所需标准,每个 NVL36/72 机架内液体冷却方案需要一个 CDU,
56、而每个 CDU 包含四个UQD(液冷快接头)。由于 AI 算力基础设施建设加速,市场对于液冷系统的需求抬升,也在一段时间内造成了液冷快接头供货吃紧的情况。先前快接头产品主要由包括 Danfoss、Parker、CPC 和 Staubil在内的欧美供应商供应,市场需求集中在细分领域,供应商扩产意愿不强;目前 AI 数据中心对于液冷组件产品需求激增,带给更多相关产业链供应商业务机会。根据产业链调研,比亚迪电子正在对英伟达GB200 方案中的液冷分配单元(CDU)及冷板产品进行客户验证,并有望在 2025 年通过验证形成出货。在在 2024 年的年的 HHTD 鸿海科技日展会上,鸿海集团展示了其液鸿
57、海科技日展会上,鸿海集团展示了其液冷解决方案和相关组件,如冷板、液冷冷解决方案和相关组件,如冷板、液冷快接头和集流管。快接头和集流管。根据调查,鸿海精密已对 GB200 配套液冷方案中的液冷快接头开始供货。尽管液冷组件市场是一个竞争激烈的领域,并在 2025 年将迎来更多供应商竞争格局的变化,但对鸿腾精密扩大其 AI 服务器产品组合持乐观态度。目前预计鸿腾精密在每个 GB200 机架的液冷相关产品价值量贡献为300 美元左右。25/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 (7)电源:电源:AI 服务器耗电量增大,电源在多方面的性能得到提升服务器耗电量增
58、大,电源在多方面的性能得到提升 AI 大模型发展,服务器能耗成本大涨大模型发展,服务器能耗成本大涨 3 倍。倍。随着 AI 服务器的市场规模不断扩大,其核心处理器,包括CPU、GPU、NPU、ASIC、FPGA 等,以及内存、网络通信等芯片元器件的性能和功耗水平都在提升。耗能方面,中兴通讯股份有限公司研发总工熊勇表示,由于 AI 服务器的功率较普通服务器高 6-8 倍,电源的需求也将同步提升 6-8 倍。通用型服务器原来只需要 2 颗 800W 服务器电源,而 AI 服务器的需求直接提升为 4 颗 1800W 高功率电源,服务器能耗成本从 3100 元直接飙升到 12400 元,大涨 3 倍。
59、英伟达芯片的额定功率呈递增趋势,基于不同芯片搭建的服务器电源功率也在上升。英伟达芯片的额定功率呈递增趋势,基于不同芯片搭建的服务器电源功率也在上升。在 2024 年的 GTC上,英伟达发布的基于 Blackwell 架构的 B200GPU 功率则首次达到了 1000W,超级芯片 GB200 功率最高达到 2700w。而此前的芯片 B100 功率在 700W,和上代 H100 完全一致,更早的 A100 功率为400W。英伟达基于不同芯片搭建的服务器电源功率也在上升。DGXA100 额定功率为 6*3kw,DGX H100/H200 额定功率为 6*3.3kw。而今年英伟达 GTC 大会上,发布
60、的基于 GB200 芯片的 NVL72 架构,NVL 系列机架功耗可达 120KW。26/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 AI 服务器电源作为高性能计算和数据中心的基础设备,担负着为服务器集群提供稳定、高效电能供应的任务。随着对更高计算能力的需求,服务器电源需要在有限空间内提供更多功率,这对功率密度提出了随着对更高计算能力的需求,服务器电源需要在有限空间内提供更多功率,这对功率密度提出了更高要求,对散热设计、元器件布局和效率提出了更高要求。更高要求,对散热设计、元器件布局和效率提出了更高要求。AI 服务器电源通过组合开关性能、服务器电源通过组合
61、开关性能、IC 封装、电路设计和集成等技术,显著提高功率密度。封装、电路设计和集成等技术,显著提高功率密度。(1)开关损耗创新:为了获得出色的器件性能和 FoM,对半导体技术进行投资很必要。这可能包括用于改进现有技术的创新,或者开发本质上性能更好的新材料,例如用于更高电压开关的氮化镓(GaN)技术。(2)封装散热创新:将热量从集成电路(IC)封装中散发出来的能力将直接影响功率密度。随着封装尺寸的不断缩小,散热问题变得越来越重要。在典型的电源转换器中,半导体器件通常是解决方案中最热的部分。例如,德州仪器的投资开发并引入了 HotRod 封装,它用倒装芯片式封装取代了典型的键合线四方扁平无引线封装
62、 QFN,这样可以大大降低倒装芯片式封装中常见的寄生环路电感,同时还保留了 QFN 封装热性能的部分优势。(3)先进的电路设计创新:除了先进的栅极驱动器技术以外,还有大量机会可以通过拓扑创新来提高功率密度。例如飞跨电容四电平(FC4L)(图 47)转换器拓扑实现了许多关键的功率密度优势,包括通过降低器件额定电压、减小磁滤波器尺寸和改善热分布来提高器件 FoM。这些优势可转化为更高的功率密度。(4)集成创新:具有高性价比的集成减少了寄生效应,减少了物料清单,提高了效率并节省了空间。集成可适用于电源管理的多个方面,它可能需要在集成电路 IC 中添加更多的电路,在封装中添加更多的组件。27/38 2
63、025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 随着随着 AI 服务器的发展,服务器的发展,AI 电源系统设计人员除了面临千瓦功电源系统设计人员除了面临千瓦功率的挑战,转换效率也至关重要。服务器率的挑战,转换效率也至关重要。服务器电源通过高性能半导体功率器件及高效率的电路拓扑结构以下方法来提高转换效率。电源通过高性能半导体功率器件及高效率的电路拓扑结构以下方法来提高转换效率。(1)使用高性能半导体功率器件:功率半导体是控制电力设备电能变换和进行电路控制的核心半导体器件,可对电路进行整流、分流、变压、逆变、稳压、变频、功率控制等。(2)采用更高效率的电路拓扑结构:拓扑结
64、构是服务器电源中的另一个重要因素。合理的拓扑结构可以提高电源的效率,降低能耗,同时也能保证服务器的稳定运行。常见的服务器电源拓扑结构有单端正激式、双端正激式、半桥式、全桥式。此外,无桥功率因数校正(PFC)通过减少导通路径的器件数来减小导通损耗,可以显著提高效率。无桥图腾柱(Totem-Pole)PFC 作为最简洁的无桥 PFC 拓扑,可以减少尺寸和元器件数量,以简化 PCB 电路,从而减小体积,提高功率密度。AI 服务器电源具有服务器电源具有 N+1 或或 N+N 冗余,具体取决于系统可靠性和成本考量。冗余,具体取决于系统可靠性和成本考量。“N”代表正常运行所需的电源模块数量,而“+1”表示
65、额外的备用电源模块,以确保系统的可靠性和容错能力。这种设计允许在其中一个组件发生故障时,系统仍然能够继续运行,而不会对服务或性能产生显著影响。由于在 N+1 或N+N 系统中有多个 PSU 同时供电,因此服务器 PSU 也需要使用电流共享技术。即使处于待机模式(未从其主电源轨向输出端供电)的 PSU 也需要在热插拔事件后即时提供全功率,因此需要功率级持续激活。为了降低待机模式下冗余电源的功耗,“冷冗余”功能正成为一种趋势。冷冗余旨在关闭主电源运行或在突发模式下运行,从而使冗余 PSU 更大限度减少待机功耗。全球电源市场中,中国台湾地区厂商占据主要市场份额。全球电源市场中,中国台湾地区厂商占据主
66、要市场份额。据 MTC,全球前 16 大电源厂商中,中国台湾地区厂商上榜 7 家,其中前五大有四家为中国台湾地区厂商,台达为断层第一,光宝第二。中国大陆企业仅有麦格米特(第 7)和欧陆通(第 12)上榜。台达是 AC/DC 电源供应器龙头,市占率过半。AC/DC 市场是半整合的,因为大多数顶级参与者,包括台达、SiemensAG、ABB、Murata Manufacturing 和 TDK 在市场上拥有长期信誉。市场渗透率也很高,供应商与分销的关系稳固。台达依靠技术领先和高度垂直整合优势,成为英伟达新台达依靠技术领先和高度垂直整合优势,成为英伟达新 AI 芯片的电源大赢家。芯片的电源大赢家。台
67、达整合电源、散热及被动元件三大关键零组件优势,从电网一路做到芯片,提供全系列 AI 电源全方位整合方案,成为英伟达新 AI 芯片的电源大赢家,拿下英伟达 Blackwell 架构系列 B100、B200、GB200 服务器电源订单。AI 服务器电源 2023 年全年占台达营收比重约 2%,2024 年第一季已快速攀升到 4%至 5%。中国大陆电源厂商在成本控制和服务能力方面具有优势,未来有望快速抢占市场份额。中国大陆电源厂商在成本控制和服务能力方面具有优势,未来有望快速抢占市场份额。28/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 AI 服务器电源领域,台
68、达仍稳居第一,麦格米特有望缩小技术差距。服务器电源领域,台达仍稳居第一,麦格米特有望缩小技术差距。台达已拿下英伟达大订单,而麦格米特目前只拿到英伟达 AI 服务器电源供货资格,尚未传出批量供货的消息,存在不确定性。电源产品收入上,台达与光宝均在百亿人民币级别,而麦格米特目前尚在 20 亿人民币体量。但麦格米特研发费用超收入的 10%,有望缩小技术差距。2023 年,麦格米特研发费用占收入比重为 11.4%,而台达的研发投入为收入的 6-9%,光宝则为 5.5%。2、AI 服务器产业链下游服务器产业链下游 在 AI 服务器行业下游环节中,互联网、运营商和通信厂商等主体的需求量占比排在前列。其中,
69、互联网厂商的市场需求占比最多,接近市场的一半,占比达 47%左右;运营商和通信厂商对 AI 服务器的需求量占比分别达到约 20%和 9%。29/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 下游 AI 服务器市场需求方面,尤其是高阶 AI 服务器动能主要来自大型 CSP,包括微软、谷歌、亚马逊、Meta、CoreWeave 等美系厂商,以及字节跳动、百度、阿里巴巴、腾讯等国内厂商。国内运营商方面,三大运营商 AI 服务器招标进程加速,带动 AI 服务器需求持续释放。五五、市场市场格局格局及预测及预测 1、ODM、品牌厂共同出货,有望受益出货量、价值量提升、品
70、牌厂共同出货,有望受益出货量、价值量提升 AI 服务器的终端客户以北美四大云计算巨头为主,微软、谷歌、META、亚马逊 2022 年的采购占比分别为 19%、17%、16%和 14%,占比合计达到 66%。云计算巨头对于 AI 服务器定制化的需求比较强烈,多委托白牌代工厂生产自身的服务器,因此 ODM 厂商服务器的出货量占比较高,24Q2 约为 44%,主要 ODM 厂商集中在中国台湾,如鸿海、英业达、广达等;而服务器品牌厂出货份额约为 56%,Top3分别为超微、戴尔、HPE。国内市场方面,2022 年出货量 Top3 厂商分别为浪潮、新华三、宁畅,份额分别为 47%、11%和 9%。随着算
71、力需求激增,AI 服务器 ODM、品牌厂有望受益产品出货量、价值量提升。30/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 2、相关供应链将持续受益相关供应链将持续受益 AI 服务器强劲需求、服务器强劲需求、GB200/GB300 新品量产新品量产出货和企业级客户订单出货和企业级客户订单 服务器品牌服务器品牌/ODM 厂商厂商 2024 年收入强劲增长和毛利率略微改善;对年收入强劲增长和毛利率略微改善;对 2025 年维持乐观看法。年维持乐观看法。大多数服务器品牌/ODM 厂商 9M24 服务器业务销售持续增长,并对 4Q 和 2025 年出货维持乐观看法,
72、主要受益于 AI 服务器需求增长和英伟达 GB200 量产出货。其中,戴尔/联想/HPE/SMCI 服务器细分市场收入 3Q24 分别同比增长 34%/65%/33%/201%。GPM 方面,因服务器的高定价,大多数服务器品牌/ODM 毛利率季度环比持平或略有上升。其中,惠普预期 AI 服务器低毛利率是暂时性,未来整体利润率会提高,预计未来能从企业客户获得更高毛利率。随着英伟达 GB200 量产出货和需求增长,加上液冷渗透率提升,预计明年服务器品牌/ODM 利润率将有望改善。看好看好 AI 服务器在服务器在 2025 年出货量快速提升,企业级客户需求旺盛。年出货量快速提升,企业级客户需求旺盛。
73、戴尔预计 2025 年 ISG 业务增长主要由 AI 服务器带动而 AI 需求向 Blackwell 转移且对应需求已经进入积压订单等待交付中,企业客户需求增长迅速。联想表示在 ISG 业务上看到 AIGPU 服务器订单需求强劲,预计从 2024 年下半年开始至2025 年,收到的订单将转化为收入贡献。工业富联表示看好 AI 技术对公司获利推动;在 GB200 关键 31/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 零组件上公司布局产品包括 GPU baseboard、Compute Board、NVLink Switches、SmartNIC、DPU等零
74、组件,涵盖 AI 服务器全部关键环节,也是行业唯一一家具备全面制造能力的供应商,公司预计2025 年实现较大规模出货量将提升获利空间。广达看好 AI 服务器业务持续强劲,并预计 2025 年 AI 服务器收入将延续三位数百分比强劲成长,整体服务器收入占比将由目前逾 50%增加至 70%。GB200 服务器服务器 ODM 市场加速整合。市场加速整合。GB200 服务器架构日益复杂,AI 产品路线图升级加快,2024 年上游芯片公司 AMD 收购 ODM 公司 ZTSystems,预计 AI 服务器 ODM 行业将加快整合。鉴于广达和鸿海与 CSP 的紧密业务关系、充足的营运资金和研发资源,以及遍
75、布全球的生产基地,能够认为广达和鸿海将是主要的受益者。预测广达/鸿海将占据 GB200 服务器 ODM 市场的大部分份额。六六、相关公司、相关公司 1、浪潮信息:、浪潮信息:占据国内占据国内 AI 服务器制高点,巩固行业领先地位服务器制高点,巩固行业领先地位 各类型服务器广泛覆盖,产品竞争力强劲。各类型服务器广泛覆盖,产品竞争力强劲。浪潮信息已形成具有自主知识产权、涵盖高中低端各类型服务器的云计算 Iaas 层系列产品。2023 年,公司服务器市场占有率全球第二,中国第一;存储产品市场占有率全球前三,中国第一;液冷服务器市场占有率中国第一。公司与英伟达、英特尔建立了良好的合作关系公司与英伟达、
76、英特尔建立了良好的合作关系,助力,助力 AI 服务器生态和训练的不断强化。服务器生态和训练的不断强化。在近 10 年前,公司就分别与全球算力芯片龙头英特尔和英伟达成立了并行计算实验室和云超算应用中心。与英伟达,与英伟达,浪潮浪潮 AI Station 与与 NVIDIA AI Enterprise 共同合作,解决数据存储、算力和任务调度、集群运维共同合作,解决数据存储、算力和任务调度、集群运维等问题。等问题。此外,浪潮 Metaengine-英伟达 OVX”的方案中,浪潮信息提供元宇宙服务器 MetaEngine,英伟达则提供模拟和协作平台 Omniverse Enterprise。与英特尔,
77、结合与英特尔,结合 Intel 至强可扩展处理器推出至强可扩展处理器推出 AI一体化训练方案。一体化训练方案。结合在硬件和软件开发方面的技术优势,推出了基于英特尔至强可扩展处理器的浪潮信息服务器 Al 训推一体化方案。该 Al 训推体化方案支持计算机视觉模型的推理工作,同时还支持大语言模型(LLM)的微调和推理工作,并可以用于支持其他通用业务。公司是百度、阿里、腾讯百度、阿里、腾讯等大型企业最主要的 AI 服务器供应商,与科大讯飞保持在系统与应用的深入合作,帮助 AI 客户在语音、图像、视频、搜索、网络等方面取得数量级的应用性能提升。占据国内占据国内 AI 服务器制高点,巩固行业领先地位。服务
78、器制高点,巩固行业领先地位。2017 年,公司前瞻提出以智慧计算为核心的长期整体发展战略,积极布局 AI 计算,目前已成为业界拥有最丰富 AI 服务器产品线的厂商。根据 IDC 发数据,2023 年,公司是全球第二大服务器供应商,也是全球第一的 AI 服务器供应商。在产品技术创新层面,2023 年,公司发布全新一代 G7 算力平台,涵盖面向云计算、大数据、人工智能等应用场景的 16 款产品,采用开放多元的架构设计,支持广泛的通用处理器和加速芯片,创造多项性能纪录。其中 AI 训练服务器 NF5688G7,较上代平台大模型实测性能提升近 7 倍。32/38 2025 年年 1 月月 20 日日
79、行业行业|深度深度|研究报告研究报告 2、工业富联:深耕工业富联:深耕 AI 服务器产业链,服务器产业链,AI 算力变革的护航者算力变革的护航者 全球领先的高端智能制造商和科技服务整合全球领先的高端智能制造商和科技服务整合解决方案提供商。解决方案提供商。工业富联主要业务包含通信及移动网络设备、云计算、工业互联网三大部分。自 2018 年上市以来,公司依托于数字经济新基建的发展机遇,推动“高端智能制造+工业互联网”的核心业务高质量发展。2020 年起,公司逐步布局云计算设备、AI、储能等,发展第二增长曲线。于 2023 年开始为客户开发并量产英伟达的 H100 及 H800 等高性能 AI 服务
80、器。2023 年实现营收 4763.4 亿元,毛利率 8.06%,净利率 4.41%。工业富联在云计算业务领域采取了多元化的商业模式。工业富联在云计算业务领域采取了多元化的商业模式。既有 OEM 模式,也包含 ODM 模式。OEM 模式主要面向品牌客户,如戴尔、惠普等,通过提供定制化的服务器产品满足其特定需求。而 ODM 模式则主要面向云服务商,如微软、亚马逊、阿里、腾讯等,为其提供高效的服务器解决方案。相对于相对于 OEM 模式,模式,ODM 模式的毛利率更高。模式的毛利率更高。主要由于 ODM 模式企业与云服务商直接合作,减少中间环节,降低成本,提高盈利能力。因此,工业富联将发展的重点放在
81、了面向云服务商客户的 ODM 业务上,以进一步拓展市场份额和提升盈利水平。33/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 工业富联深度参与英伟达工业富联深度参与英伟达 AI 产业链,在产业链分工变化中有望获取更多份额。产业链,在产业链分工变化中有望获取更多份额。公司作为英伟达重要的联合研发合作伙伴以及云厂商的核心供应商,在 AI 爆发初期就占据了 AI 服务器供应的一席之地,业务涉及 GPU 模组、板卡和服务器多种形态。而在 GB200 机柜级产品系列中,公司深度参与了机柜级产品从板卡到计算托盘、交换托盘到整机的生产制造,单机价值量和机柜出货量均有望伴随
82、 GB200 芯片的量产实现大幅增长,带动云计算业务收入以及整体业绩高增。3、紫光股份:紫光股份:具备了完善的具备了完善的 AI 服务器产品和解决方案服务器产品和解决方案 紫光股份成立于 1999 年,由紫光集团发起设立,并于同年在深交所上市,公司通过多次并购重组,深度布局“云网芯边端”全产业链,业务涵盖 ICT 基础设施服务与 IT 分销两大业务板块,产品已全面覆盖网络、计算、存储、云计算、安全和智能终端、数字化解决方案等全生命周期服务。公司旗下主要子公司有新华三、紫光软件、紫光数码、紫光西数、紫光云。其中,新华三是 ICT 基础设施行业龙头,是紫光股份经营主体,为公司贡献了大部分营收和利润
83、。紫光软件是中国领先的行业解决方案和 IT 服务提供商,是公司云网板块的重要组成部分。紫光数码是公司主要的 ICT 分销商,还覆盖智慧物流和供应链金融。紫光西数主要生产数字存储设备。紫光云是公司“芯云战略”的重要组成部分,聚焦智慧城市运营、公有云研发、运营及销售和产业互联网等业务。公司与政企和云计算领域深度合作。公司与政企和云计算领域深度合作。政企领域,公司 2024 年发布了 G7 系列模块化异构算力服务器,其中,H3CUniServerR5500G7 支持千亿级参数规模的大模型训练,其搭载 2 颗最新处理器+GPU 异构算力,支持大模型混合并行训练;新一代模块化边缘服务器 H3CUniSe
84、rverE3300G6 具备算网融合、边缘智算和绿色高效三重优势,满足 5G、边缘云、边缘 AI 等不同边缘场景的需求,已在边缘云、新能源发电、工业互联网等场景应用部署;公司 2023 年发布的服务大模型训练的智能算力旗舰 H3C UniServer R5500 G6 面向大规模 AI 训练和推理场景,相较上一代产品相比算力提升 3 倍,训练时间可 34/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 缩短 70%,目前已在互联网公司和多个智算中心项目应用,覆盖互联网、运营商、金融、数字政府、教育等行业。4、沃尔核材:沃尔核材:高速通信线产品获重要客户验证,订
85、单陆续交付高速通信线产品获重要客户验证,订单陆续交付 沃尔核材成立于 1998 年,公司位于广东省深圳市,致力于高分子核辐射改性新材料及系列电子、电力、电线新产品的研发、制造和销售,开发运营风力发电、布局新能源汽车、智能制造等相关产业。子公司乐庭智联生产的高速通信线为无源 DAC 铜电缆,在短距离信号传输方面,具备低功耗、高性价比、高速率等优势,广泛应用于数据中心、服务器、交换机/工业路由器等数据信号传输,主要客户包括安费诺、豪利士、莫仕、泰科、立讯等。根据公司 2024 年 8 月投资者互动问答,公司部分单通道 224G 高速通信线产品完成了重要客户验证,已接到订单需求,陆续交付中,目前整体
86、占比较小。5、精达股份:精达股份:镀银高速铜线产品获国内外知名客户认可,巩固行业龙头镀银高速铜线产品获国内外知名客户认可,巩固行业龙头地位地位 精达股份成立于 2000 年,公司位于安徽省铜陵市,公司主营特种电磁线、特种导体以及模具制造和维修等生产、研发和销售业务,产品主要应用于汽车、电力、电机、光伏、电子、通讯、电网、交通、航空航天及家电等领域。子公司恒丰特导生产的镀银导体产品适用于高速线等领域,经过行业内多年的积累,公司在特殊导体领域围绕铜及铜合金导体生产工艺及制备设备的核心技术进行多项革新,构建技术壁垒,在国内细分行业一直处于龙头地位,目前镀银高速铜线产品的主要外资客户有安费诺、Mole
87、x、百通、泰科等,国内客户有乐庭、立讯精密、新亚电子、神宇通信、兆龙互连等。6、中际旭创:中际旭创:AI 需求加快光互联迭代,全球高速光模块龙头核心受益需求加快光互联迭代,全球高速光模块龙头核心受益 公司为全球市占率领先的数通光模块龙头。公司为全球市占率领先的数通光模块龙头。公司主营业务集高端光通信收发模块的研发、设计、封装、测试和销售于一体,为云数据中心客户提供 100G、200G、400G 和 800G 等高速光模块,为电信设备商客户提供 5G 前传、中传和回传光模块以及应用于骨干网和核心网传输光模块等高端整体解决方案。35/38 2025 年年 1 月月 20 日日 行业行业|深度深度|
88、研究报告研究报告 根据 Lightcounting,公司市占率在过去 10 年内迅速攀升,2023 年超越 Coherent 成为全球第一的光模块供应商。公司率先发布公司率先发布 800G/1.6T 等高速数通产品,卡位等高速数通产品,卡位 AI 算力设施建设浪潮。算力设施建设浪潮。1)英伟达明确一年一迭代平台,配套光模块速率不断提升,有望拉动高速率光模块需求。AI 算力的核心是 GPU,而英伟达提升到一年一迭代的节奏,将拉动 NvLink、IB、以太网等网络连接解决方案的提速,进而对光互联的关键器件光模块释放长期持续的更新迭代需求。2)北美云厂商资本开支进入上行周期,有望带动高速光模块出货量
89、提升。AI 应用前景广阔,AI 基础设施建设需求与日俱增,北美头部云厂商对 2024 全年资本开支指引乐观,未来更高性能的 GPU 将要求配套光模块实现更快速率,预计 800G 及 1.6T 等超高速率光模块将成为市场主流。3)公司前瞻性布局 800G、1.6T,于行业内率先发布 800G 产品。公司在 2020 年首次推出 800G 光模块产品,在 2023 年推出 1.6T 光模块产品,延续产品领先优势,有望抢占行业先机。公司在硅光、公司在硅光、LPO、CPO 等新兴技术储备充足,巩固公司长期发展优势。等新兴技术储备充足,巩固公司长期发展优势。公司较早自研布局硅光技术,掌握硅光芯片设计核心
90、能力,并与 TowerSemiconductor 硅光平台合作流片,可为公司提供先进工艺及稳定流片;LPO 产品具有较高市场需求预期,公司已发布相关产品;此外,公司高度重视 CPO 技术,正在积极进行相关核心技术预研。公司为全球数通光模块龙头,与海外头部客户合作紧密。公司为全球数通光模块龙头,与海外头部客户合作紧密。根据 Lightcounting,公司市占率在过去 10 年内迅速攀升,2023 年公司超越 Coherent 在全球光模块市场中占据第一的份额。此外,公司立足于自主技术创新,打造具有国际竞争力的高速光通信收发模块的研发、设计和制造公司,持续增加研发投入,构筑技术壁垒,2019-2
91、023 年,公司研发支出从 4.5 亿元大幅提升至 8.1 亿元,位于业内领先水平。同时,公司布局多个产能,在苏州、铜陵、成都、泰国、中国台湾地区均设有生产基地,具备大批量高端光模块出货能力。7、精智达:存储芯片测试设备提供商精智达:存储芯片测试设备提供商 精智达是国内领先的检测设备与系统解决方案提供商,主营业务涉及新型显示器件检测设备业务和半导体存储器测试设备业务。在半导体存储器测试设备方面,公司主要聚焦于半导体存储器、影像传感器和显示驱动器 SoC 的后道测试,是目前国内少数的半导体存储器测试设备业务全覆盖的厂商之一。当前公司探针卡产品、老化修复设备等均已通过国内主要存储器件厂商验证并取得
92、批量销售业绩;晶圆测试机与 FT 测试机研发持续推进,其中晶圆测试机样机验证工作接近完成,应用于 FT 测试机的9Gbps 高速接口 ASIC 芯片已经实现工程流片,同时公司配合相关客户开发针对如 HBM 测试需求的测试技术和设备。36/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 8、麦格米特:多极布局行稳致远,麦格米特:多极布局行稳致远,AI 服务器电源贡献高弹性服务器电源贡献高弹性 电气自动化多元布局,业绩整体稳健增长。电气自动化多元布局,业绩整体稳健增长。公司是国内电力电子领军企业,业务涵盖智能家电电控产品、电源产品、新能源及轨道交通部件、工业自动化
93、、智能装备、精密连接六大类。2024Q1-3 公司实现营收 59.0 亿元,同比+21.1%,归母净利润 4.1 亿元,同比-14.8%,主要系公允价值变动收益同比减少,扣非净利润 3.6 亿元,同比+18.1%;其中 24Q3 实现营业收入 18.9 亿元,同比+19.0%,归母净利润 1.0亿元,同比+3.9%,扣非净利润 0.8 亿元,同比+16.3%,业绩整体稳健增长。公司电源技术储备深厚,优良品牌口碑为海外龙头客户攻克打下良好基础。公司早年主要从事通信电源制作,伴随 5G 产业的持续发展,先后与爱立信、飞利浦、魏德米勒、西门子等展开深度合作,并在2019 年实现了思科、瞻博网络等国际
94、龙头客户的突破。以通讯电源技术为基础,切入服务器电源赛道。服务器电源和通讯电源底层技术共通,都是起到降压和整流效应,但服务器电源具有更高的功率密度、负载波动、效率要求以及较高品质的冗余配置。2021年起公司陆续推 1600W/2200W 服务器电源产品,并在 2024 年 OCP 全球峰会上展示 5.5KW 电源样机。公司成为英伟达公司成为英伟达 AI 服务器电源大陆唯一供应商,公司积累多年,厚积薄发。服务器电源大陆唯一供应商,公司积累多年,厚积薄发。台达电、光宝为英伟达 AI服务器电源的头部供应商并占据主要份额。本次英伟达官网披露的合作伙伴中,仅新增麦格米特一家电源厂商。公司持续在网络电源领
95、域投入多年,此前已与国内外头部公司进行了多项项目需求和订单对接,并完成了技术平台、产品标准等的能力建设,跻身网络电源第一梯队供应商。英伟达将麦格米特纳入合作伙伴充分证明了公司在 AI 服务器电源领域的技术积累和产品实力。公司电源产品效率位居行业前列。公司电源产品效率位居行业前列。公司最新推出的电源系统适用于 NVIDA MGX 平台,电源方案为 6个 5.5kw 电源模块,在 1U 服务器电源架中提供 33kw 功率,效率高达 97.5%。根据台达电官网,其 37/38 2025 年年 1 月月 20 日日 行业行业|深度深度|研究报告研究报告 ORV3 标准的 33/66kw 机架式电源效率
96、高达 97.5%。公司产品效率与行业龙头台达电基本一致,均超越80plus 标准下最高等级钛金级 96%。4KW、2400W 钛金以及钛金以及 33KW Powershelf 等最新技术突破产品将陆续亮相各大展会,可满足现等最新技术突破产品将陆续亮相各大展会,可满足现阶段国内外行业头部客户对阶段国内外行业头部客户对 AI 服务器的电源应用需求。服务器的电源应用需求。麦格米特电源业务大多为定制项目,具体产品参数可视客户具体需求进行定制开发,公司是目前少数已具备行业领先的高功率高效率电源技术平台以及全产业链海外制造能力的综合型电源供应商,可满足现阶段国内外行业头部客户对 AI 服务器的电源应用需求
97、。自 2024 年 9 月起,公司团队也将携带最新技术突破的网络电源产品阵容(包括 CRPS 系列电源、4KW、2400W 钛金以及 33KW Powershelf 等)亮相国内外各大行业技术展会。新推出的服务器电源具备高功率 5.5KW,高密度 100+W/立方英寸,高效率钛金 96%Titanium 等优异性能特点。服务器电源标准 CRPS 系列产品,具有全数字电路设计,遵循英特尔 CRPS 冗余电源定义指标。产品满足80PLUS 铂金和钛金能耗效率,支持 N+1 冗余模式。可热插拔,PMBus1.2 版本协议,符合IEC60950/62368 标准。七七、参考研报、参考研报 1.国信证券
98、-电子行业 2025 年年度投资策略:AI 革新人机交互,智能终端百舸争流,行业迈入估值扩张大年 38/38 2025 年年 1 月月 20 日日行业行业|深度深度|研究报告研究报告 2.天风证券-消费电子行业研究周报:英伟达 GB200NVL72 服务器正式出货,看好如期量产及算力板块机会3.中信建投-电子行业:机柜放量在即,核心算力增量之高速铜连接4.东北证券-工业富联-601138-深度报告:深耕 AI 服务器产业链,AI 算力变革的护航者5.招银国际-2025 年度策略报告:寒潮未尽,春山可望6.华福证券-服务器行业深度报告:AI 和“东数西算”双轮驱动,服务器再起航7.万联证券-20
99、24 年中期电子行业投资策略报告:AI 浪潮迭起,智能触手可及8.国海证券-计算机行业 AI 算力“卖水人”系列(3):NVIDIAGB200,重塑服务器/铜缆/液冷/HBM 价值9.光大证券-电子行业英伟达产业链跟踪报告之二:Blackwell 将于 2025 年加速成长,光铜板供应链有望深度受益10.中原证券-通信行业年度策略:向新求质,AI 驱动产业变革11.东莞证券-电子行业 2025 上半年投资策略:AI 驱动行业成长,云端算力与终端创新齐飞12.东兴证券-浪潮信息-000977-产线充沛,占据国内 AI 服务器制高点13.山西证券-紫光股份-000938-ICT 龙头企业,深化全栈智算能力-24120414.上海证券-算力行业深度报告(系列一):算力供需双向走强,AI 催化 Infra 建设新征程免责声明:以上内容仅供学习交流,不构成投资建议。