当前位置:首页 > 报告详情

计算机行业专题研究:ChatGPT服务器深度拆解-230225(23页).pdf

上传人: 微*** 编号:116487 2023-02-27 23页 1.87MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文主要内容为华泰研究对计算机行业的研究报告,重点关注了ChatGPT模型对AI服务器产业的影响。报告指出,随着国内互联网厂商陆续开展ChatGPT类似产品研发,GPT大模型训练热潮或将带来底层算力需求快速释放。报告预测,ChatGPT一次预训练需要3640 PFlop/s-day、单月运营需要算力7034.7PFlop/s-day。报告认为,AI服务器更适合承接GPT大模型算力需求,主要硬件成本来自算力芯片,且以GPU为主。报告建议关注浪潮信息、景嘉微等公司。
大模型+Transformer 架构,带动并行计算需求ChatGPT 发布之后,引发了全球范围的关注和讨论,百度、阿里、京东等国内各大厂商相继宣布 GPT 模型开发计划。从 AI 模型应用场景来看,主要包括推理和训练两类。从实践场景来看,算力需求场景包括预训练、Finetune及日常运营。以 GPT-3 模型为例,随着模型朝更大体量的方向演进,一次训 练 所 需 的 计 算 量 最 高 达 3640PFlop/s-day , 单 月 运 营 算 力 7034.7PFlop/s-day,对应成本约 889 万美元。我们认为,在 Transformer 架构加持下,GPT 模型得以高效地完成大规模参数计算,随着模型持续迭代、参数体量不断提升,并行计算需求有望进一步释放。 大模型+Transformer 架构,带动并行计算需求ChatGPT 发布之后,引发了全球范围的关注和讨论,百度、阿里、京东等国内各大厂商相继宣布 GPT 模型开发计划。从 AI 模型应用场景来看,主要包括推理和训练两类。从实践场景来看,算力需求场景包括预训练、Finetune及日常运营。以 GPT-3 模型为例,随着模型朝更大体量的方向演进,一次训 练 所 需 的 计 算 量 最 高 达 3640PFlop/s-day , 单 月 运 营 算 力 7034.7PFlop/s-day,对应成本约 889 万美元。我们认为,在 Transformer 架构加持下,GPT 模型得以高效地完成大规模参数计算,随着模型持续迭代、参数体量不断提升,并行计算需求有望进一步释放。 大模型+Transformer 架构,带动并行计算需求ChatGPT 发布之后,引发了全球范围的关注和讨论,百度、阿里、京东等国内各大厂商相继宣布 GPT 模型开发计划。从 AI 模型应用场景来看,主要包括推理和训练两类。从实践场景来看,算力需求场景包括预训练、Finetune及日常运营。以 GPT-3 模型为例,随着模型朝更大体量的方向演进,一次训 练 所 需 的 计 算 量 最 高 达 3640PFlop/s-day , 单 月 运 营 算 力 7034.7PFlop/s-day,对应成本约 889 万美元。我们认为,在 Transformer 架构加持下,GPT 模型得以高效地完成大规模参数计算,随着模型持续迭代、参数体量不断提升,并行计算需求有望进一步释放。
客服
商务合作
小程序
服务号
折叠