《半导体行业专题:ChatGPT对GPU算力的需求测算与相关分析-230216(71页).pdf》由会员分享,可在线阅读,更多相关《半导体行业专题:ChatGPT对GPU算力的需求测算与相关分析-230216(71页).pdf(71页珍藏版)》请在三个皮匠报告上搜索。
1、2023年年2月月16日日半导体行业专题半导体行业专题ChatGPT对对GPU算力的需求测算与相关分析算力的需求测算与相关分析中信证券研究部中信证券研究部 雷俊成雷俊成/王子源王子源/徐涛徐涛/杨泽原杨泽原1 1核心观点:单个大模型可带来核心观点:单个大模型可带来2万万GPU销售量,搜索引擎带来成倍空间销售量,搜索引擎带来成倍空间核心观点:核心观点:1.1.短期内短期内GPUGPU增量与市场规模:增量与市场规模:参考OpenAI算法,假设每日1亿用户,每人进行10条交互,每个问题的回答长度为50词,算力利用率30%,则单个大语言模型(LLM)的日常需求有望带来2.13万片A100的增量,对应市
2、场规模2.13亿美元。假设有假设有5 5家大企业推出此类家大企业推出此类LLMLLM,则总,则总增量为增量为10.710.7片片A100A100,对应市场规模,对应市场规模10.710.7亿美元。亿美元。2.2.短期服务器增量与市场规模:短期服务器增量与市场规模:单个服务器包含8个GPU,因此单个LLM带来2669台服务器需求,对应市场规模3.39亿美元,5 5家大企业共需要家大企业共需要1334513345台,对应市场规模台,对应市场规模2020亿美元。亿美元。3.3.长期市场空间:长期市场空间:参考谷歌,若每日搜访问30亿次,需要需要106.74106.74万张万张A100A100,对应,
3、对应13.313.3万台服万台服务器务器DGX A100DGX A100,带来市场空间,带来市场空间200200亿美元。亿美元。资料来源:Raconteur,OpenAI:Language Models are Few-Shot Learners,NVIDIA官网,Amazon,中信证券研究部市场规模相关参数市场规模相关参数/假设假设A100单卡算力:19.5TFLOPS/s日常算力利用率:30%(依据经验)GPU单价:1万美元(A100)服务器单价:15万美元(DGX Station A100)做LLM模型的企业数量:5(BAT、华为、字节)每台服务器搭载GPU数量:81亿用户所需GPU数量
4、:21348(A100)近期单日交互+训练总算力1.08E+10TFLOPSA100单卡算力19.5T/s算力利用率30%关键中间变量:关键中间变量:GPU与服务器增量与服务器增量一个LLM模型所需GPU数量:21348(A100)1亿用户所需服务器数量:2669(DGX A100)每台服务器搭载GPU数量:85家企业对应10.7万片A100、1.33万台服务器短期国内短期国内GPU/服务器增量市场规模服务器增量市场规模一个LLM模型所需GPU数量:21348(A100)GPU单价:1万美元(A100)1亿用户带来国内GPU总市场规模:2.13亿美元一个LLM所需服务器数量:2669服务器单价
5、:15万美元(A100)1亿用户带来国内服务器市场规模:3.39亿美元远期远期GPU增量空间增量空间谷歌+LLM所需GPU数量:1067415(A100)远期总算力需求:5.4 E+11 TFLOPSA100单卡算力:19.5TFLOPS/s算力利用率:30%5家企业对应10.7亿美元GPU、20亿美元服务器谷歌+LLM所需服务器数量:133427(GPU/8)注:远期由于更高算力的注:远期由于更高算力的GPUGPU出现或更高效的计算出现或更高效的计算方式,对应市场空间可能变化。方式,对应市场空间可能变化。2 2核心观点核心观点技术差距:技术差距:GPGPU的核心壁垒是高精度浮点计算及的核心壁
6、垒是高精度浮点计算及CUDA生态生态。从高精度浮点计算能力来看从高精度浮点计算能力来看,国内国内GPU产品与国外产品的计算性能仍或有一代以上差距;在软件和生产品与国外产品的计算性能仍或有一代以上差距;在软件和生态层面与英伟达态层面与英伟达CUDA生态的差距则更为明显生态的差距则更为明显。AI计算GPU领域,国内壁仞科技发布的BR100产品在FP32单精度计算性能上实现超越NVIDIA A100芯片,但是不支持FP64双精度计算;天数智芯推出的天垓100的FP32单精度计算性能实现超越A100芯片,但是在INT8整数计算性能方面却低于A100;海光推出的DCU实现了FP64双精度浮点计算,但是其