《计算机行业:从ChatGPT看算力产业机遇-230213(13页).pdf》由会员分享,可在线阅读,更多相关《计算机行业:从ChatGPT看算力产业机遇-230213(13页).pdf(13页珍藏版)》请在三个皮匠报告上搜索。
1、 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。1 证券研究报告 计算机计算机 从从 ChatGPT 看看算力算力产业机遇产业机遇 华泰研究华泰研究 计算机计算机 增持增持 (维持维持)研究员 谢春生谢春生 SAC No.S0570519080006 SFC No.BQZ938 +(86)21 2987 2036 联系人 林海亮林海亮 SAC No.S0570122060076 +(86)21 2897 2228 行业行业走势图走势图 资料来源:Wind,华泰研究 2023 年 2 月 13 日中国内地 专题研究专题研究 大模型训练热潮下,算力基础设施有望迎来产业机遇大模型训练热
2、潮下,算力基础设施有望迎来产业机遇 ChatGPT 发布之后,引发了全球范围的关注和讨论,国内各大厂商相继宣布 GPT 模型开发计划。我们认为,以 GPT 模型为代表的 AI 大模型训练,需要消耗大量算力资源,随着国产大模型开发陆续进入预训练阶段,算力需求持续释放或将带动算力基础设施产业迎来增长新周期。产业链相关公司包括:1、算力芯片厂商:景嘉微、寒武纪、海光信息、龙芯中科、中国长城等;2、服务器厂商:浪潮信息、中科曙光等;3、IDC 服务商:宝信软件等。ChatGPT:大模型训练带来高算力需求:大模型训练带来高算力需求 训练 ChatGPT 需要使用大量算力资源。据微软官网,微软 Azure
3、 为 OpenAI开发的超级计算机是一个单一系统,具有超过 28.5 万个 CPU 核心、1 万个GPU 和 400 GB/s 的 GPU 服务器网络传输带宽。据英伟达,使用单个 Tesla架构的 V100 GPU 对 1746 亿参数的 GPT-3 模型进行一次训练,需要用 288年时间。此外,算力资源的大量消耗,必然伴随着算力成本的上升,据Lambda,使用训练一次 1746 亿参数的 GPT-3 模型所需花费的算力成本超过 460 万美元。我们认为,未来拥有更丰富算力资源的模型开发者,或将能够训练出更优秀的 AI 模型,算力霸权时代或将开启。需求场景:预训练需求场景:预训练+日常运营日常
4、运营+Finetune 具体来看,AI 大模型对于算力资源的需求主要体现在以下三类场景:1)模型预训练:ChatGPT 采用预训练语言模型,核心思想是在利用标注数据之前,先利用无标注的数据训练模型。据我们测算,训练一次 ChatGPT 模型(13 亿参数)需要的算力约 27.5PFlop/s-day;2)日常运营:用户交互带来的数据处理需求同样也是一笔不小的算力开支,我们测算得 ChatGPT 单月运营需要算力约 4874.4PFlop/s-day,对应成本约 616 万美元;3)Finetune:ChatGPT 模型需要不断进行 Finetune 模型调优,对模型进行大规模或小规模的迭代训练
5、,产生相应算力需求。算力芯片算力芯片+服务器服务器+数据中心,核心环节有望率先受益数据中心,核心环节有望率先受益 我们认为,随着国内厂商相继布局 ChatGPT 类似模型,算力需求或将持续释放,供给端核心环节或将率先受益:1)算力芯片:GPU 采用了数量众多的计算单元和超长的流水线,架构更适合进行大吞吐量的 AI 并行计算;2)服务器:ChatGPT 模型训练涉及大量向量及张量运算,AI 服务器具备运算效率优势,大模型训练有望带动 AI 服务器采购需求放量;3)数据中心:IDC算力服务是承接 AI 计算需求的直接形式,随着百度、京东等互联网厂商相继布局 ChatGPT 类似产品,核心城市 ID
6、C 算力缺口或将加大。关注关注 AI 景气周期下,算力基础设施产业机遇景气周期下,算力基础设施产业机遇 我们认为,国产厂商未来或将训练出自己的 GPT 模型,带动算力设施产业迎来景气周期。相关公司包括:1、算力芯片厂商:景嘉微、寒武纪、海光信息、龙芯中科、中国长城等;2、服务器厂商:浪潮信息、中科曙光等;3、IDC 服务商:宝信软件等。风险提示:宏观经济波动;下游需求不及预期。本研报中涉及到的公司、个股内容系对其客观公开信息的整理,并不代表本研究团队对该公司、该股票的推荐或覆盖。(30)(21)(12)(3)6Feb-22Jun-22Oct-22Feb-23(%)计算机沪深300 免责声明和披