《【信达证券】电子:AI产业川流汇聚,云端两旺机遇开启-250107(11页).pdf》由会员分享,可在线阅读,更多相关《【信达证券】电子:AI产业川流汇聚,云端两旺机遇开启-250107(11页).pdf(11页珍藏版)》请在三个皮匠报告上搜索。
1、 AI 产业川流汇聚,云端两旺机遇开启 Table_ReportDate2025 年 1 月 7 日 请阅读最后一页免责声明及信息披露 http:/ 2 证券研究报告 行业研究 行业专题研究(普通)电子电子 投资评级投资评级 看好看好 上次评级上次评级 看好看好 Table_Author 莫文宇 电子行业首席分析师 执业编号:S1500522090001 邮 箱: 信达证券股份有限公司 CINDA SECURITIES CO.,LTD 北 京 市 西 城 区 宣 武 门 西 大 街 甲127号 金 隅 大 厦B座 邮编:100031 AIAI 产业川流汇聚,云端两旺机遇开启产业川流汇聚,云端两
2、旺机遇开启 Table_ReportDate 2025 年 1 月 7 日 本期内容提要本期内容提要:Table_Summary Blackwell众多技术突破,整体以机柜形式交货。众多技术突破,整体以机柜形式交货。GB200机柜有NVL36和 NVL72 两种规格。GB200 NVL36 配置中,一个机架有 36 个 GPU 和 9 个双 GB200 计算节点(以托盘为单位)。GB200 NVL72 在一个机架中配置了 72 个 GPU/18 个双 GB200 计算节点,或在两个机架中配置了 72 个 GPU,每个机架上配置了 18 个单 GB200 计算节点。每个 GPU 具有 2080
3、亿个晶体管,采用专门定制的台积电 4NP 工艺制造。所有 Blackwell 产品均采用双倍光刻极限尺寸的裸片,通过 10 TB/s 的片间互联技术连接成一块统一的 GPU。此外,B 系列还有众多突破,支持 4 位浮点(FP4)AI。内存可以支持的新一代模型的性能和大小翻倍,同时保持高精度。互联方面,第五代 NVLink技术实现高速互联。NVIDIA NVLink 交换机芯片能以惊人的 1.8TB/s 互连速度为多服务器集群提供支持。采用 NVLink 的多服务器集群可以在计算量增加的情况下同步扩展 GPU 通信,因此 NVL72 可支持的 GPU 吞吐量是单个 8 卡 GPU 系统的 9 倍
4、。此外,Blackwell 架构在安全 AI、解压缩引擎、可靠性等方面也实现了不同程度的创新和突破。Blackwell 或成或成推推理市场的钥匙,理市场的钥匙,FP4 精度潜力较大。精度潜力较大。目前模型参数变大的速度放缓,但模型推理和训练的运算量仍高速增长,尤其在 o1引入强化学习之后,post scaling law 开始发力。英伟达在发布 H100架构时,便就 FP8 数据精度做出一定讨论。业界曾长期依赖 FP16 与 FP32 训练,但这种高精度的运算,在大模型 LLM 中受到了一定阻碍:由于模型参数等因素导致运算骤升,可能导致数据溢出。英伟达提出的 FP8 数据精度因为占用更少的比特
5、,能提供更多运算量。以 NVIDIA H100 Tensor Core GPU 为例,相较 FP16 和 BF16,FP8 的峰值性能能够实现接近翻倍。FP4 精度是 FP8 的继承和发展,对推理市场的打开有重要推动。GB200 推出了 FP4,FP4 支持由于降低了数据精度,性价比相比 H100 几乎倍增。根据 Semianalysis 的数据,GB200 NVL72 在 FP4 精度下,FLOPS 相比 H100 可以最高提高 405%(注:H100 最低以 FP8 计算),由此带来性价比提升。目前,FP4 的运算已经可以在大模型运算中广泛应用,且已有研究表明网络可以使用 FP4 精度进行
6、训练而不会有显著的精度损失。此外,由于模型推理中不需要对模型参数进行更新,相对训练对于精度的敏感性有所下降,因此 B 系列相对于训练,在推理领域会更有优势。B 系列引入 FP4 精度后,大模型在云侧和端侧的协同都有望实现跃升,这也是我们看好接下来的端侧市场的原因之一。AI 产业川流汇聚,产业川流汇聚,2025 年有望云端两旺。年有望云端两旺。我们认为,B 系列的推出有望打开推理市场,各类 AI 终端有望掀起持续的机遇。此外,AI 产业的闭环有望刺激云厂商资本开支,云端共振共同发展。建议关注英伟达产业链传统的核心厂商,如 ODM、PCB 厂商等。此外,B 系列带来的新兴赛道如铜连接、AEC 赛道