1、请仔细阅读本报告末页声明请仔细阅读本报告末页声明 证券研究报告|行业深度 2023 年 04 月 08 日 电子电子“AI 革命”革命”算力篇算力篇 GPU:算力的核心硬件算力的核心硬件,海外绝对垄断,海外绝对垄断。根据 Verified Market Research 数据,2021年全球 GPU 市场规模为 334.7 亿美金,预计到 2030 年将达到 4473.7 亿美金,期间CAGR 33.3%。全球 GPU 市场目前被海外企业垄断,根据 Jon Peddie Research 数据,2022年四季度PC GPU中,英特尔/英伟达/AMD份额分别为71%/17%/12%;2022Q4
2、独立 GPU 中,英特尔/英伟达/AMD 份额分别为 6%/85%/9%,全球范围内 GPU 市场呈现出海外三巨头垄断局面。LLM 模型带动算力需求模型带动算力需求。LLM 模型的训练需要大量的计算资源和海量的文本数据,因此需要使用分布式计算和大规模数据处理技术。例如,GPT-3 模型拥有约 1750 亿参考量,这使得 GPT-3 拥有其他较少参考量模型来说更高的准确性:仅需少量的样本训练就能够接近于 BETR 模型使用大量样本训练后的效果。但同时,如果以英伟以英伟达旗舰级达旗舰级 GPU 产品产品 A100 对对 GPT-3 进行训练,进行训练,1024 块块 A100 卡需要耗费超过卡需要
3、耗费超过 1个月(大于个月(大于 30 天),则我们可以按比例计算出,如果需要单日完成训练,需要的天),则我们可以按比例计算出,如果需要单日完成训练,需要的A100 数量将超过数量将超过 30000 块。块。我们认为,LLM 模型无论在性能还是在学习能力上,相较于其他模型都具备明显优势,未来或将成为行业趋势,同时大规模的训练模型与之对应的便是庞大的算力需求。服务器:服务器:GPU 市场的重要增长动力。市场的重要增长动力。服务器中 GPU 由于其具有最强的计算能力同时具备深度学习等能力,目前成为服务器中加速芯片的首选。AI 服务器中服务器中 GPU 单单品类硬件价值量占比较高:品类硬件价值量占比
4、较高:我们以我们以 Nvidia DGX A100 为例,通过计算我们发现其为例,通过计算我们发现其GPU 价值量占比约为价值量占比约为 48.24%。根据 TrendForce 数据,截止 2022 年全球搭载GPGPU 的 AI 服务器出货量占整体服务器比重约 1%,同时 TrendForce 预测 2023年伴随 AI 相关应用加持,年出货量增速达到 8%,20222026 年 CAGR 为 10.8%。我们假设训练我们假设训练 AI 服务器和推理服务器和推理 AI 服务器的比例为服务器的比例为 1:4,计算得到,计算得到 2023/2026 年年训练服务器的数量大约为训练服务器的数量大
5、约为 3.60/5.00 万台。同时假设推理万台。同时假设推理 AI 服务器和训练服务器和训练 AI 服服务器使用的务器使用的 GPU 数量分别为数量分别为 4 张和张和 8 张,算出张,算出 2023 年和年和 2026 年全球年全球 AI 服务器服务器领域所需领域所需 GPU 数量约为数量约为 86.4 万张和万张和 120 万张,以万张,以 A100 约约 1.20w 美金的价格作美金的价格作为参考计算出为参考计算出 2023 年和年和 2026 年年 AI 服务器所需服务器所需 GPU 的价值分别为的价值分别为 103.7 亿亿美美元和元和 144.0 亿亿美元。美元。硬件国产化迫在眉
6、睫!硬件国产化迫在眉睫!2022 年 8 月,美国政府通知英伟达,其需要获得许可才能够向中国和俄罗斯出口任何基于最新架构的 A100 GPU 或 DGX/HGX 等系统,同时该项规定也同时适用于最新发布的 H100 GPU 或者实现类似功能的产品。国内公司百度国内公司百度旗下大模型旗下大模型 ERNIE 3.0 Titan 参数量达到参数量达到 2600 亿,高于亿,高于 GPT-3 的的 1750 亿,其亿,其所需的同规格所需的同规格 GPU 数量将远大于数量将远大于 GPT-3,根据比例我们可以计算出在相同时间下,根据比例我们可以计算出在相同时间下(超过一个月)(超过一个月)ERNIE 3