1、发布日期:2024年3月9日HBM:AI的内存瓶颈,高壁垒高增速的内存瓶颈,高壁垒高增速分析师:刘双锋分析师:刘双锋SAC SAC 编号:编号:S1440520070002S1440520070002行业深度行业深度证券研究报告证券研究报告本报告由中信建投证券股份有限公司在中华人民共和国(仅为本报告目的,不包括香港、澳门、台湾)提供。在遵守适用的法律法规情况下,本报告亦可能由中信建投(国际)证券有限公司在香港提供。同时请务必阅读正文之后的免责条款和声明。研究助理研究助理:何昱灵何昱灵分析师:章合坤分析师:章合坤SAC SAC 编号:编号:S1440522050001S1440522050001
2、分析师分析师:孙芳芳孙芳芳SAC SAC 编号:编号:S1440520060001S14405200600012摘要摘要摘要摘要 HBMHBM是限制当前算力卡性能的关键因素是限制当前算力卡性能的关键因素,海力士海力士、三星三星、美光正加大研发投入和资本开支美光正加大研发投入和资本开支,大力扩产大力扩产并快速迭代并快速迭代HBMHBM,预计预计20242024年年HBMHBM3 3e e 2424GB/GB/3636GBGB版本将量产版本将量产/发布发布,内存性能进一步提高内存性能进一步提高。HBMHBM供需供需将持续紧俏将持续紧俏,市场规模高速增长市场规模高速增长。通过分析生产工艺通过分析生产
3、工艺(TSVTSV、键合等键合等)和技术演进方向和技术演进方向(先进制程先进制程、叠层叠层),我们认为封装测试我们认为封装测试、前道和后道先进封装的设备和材料将是前道和后道先进封装的设备和材料将是HBMHBM主要受益方向主要受益方向。HBMHBM是当前算力的内存瓶颈是当前算力的内存瓶颈。存储性能是当下制约高性能计算的关键因素,从存储器到处理器,数据搬运会面临带宽和功耗的问题。为解决传统DRAM带宽较低的问题,本质上需要对单I/O数据速率和位宽进行提升。HBM由于采用了TSV、微凸块等技术,DRAM裸片、计算核心间实现了较短的信号传输路径、较高的I/O数据速率、高位宽和较低的I/O电压,因此具备
4、高带宽、高存储密度、低功耗等优势。即便如此,当前HBM的性能仍然跟不上算力卡的需求。三大原厂持续加大研发投入三大原厂持续加大研发投入,HBMHBM性能倍数级提升性能倍数级提升。随着技术的迭代,HBM的层数、容量、带宽指标不断升级,目前最先进的HBM3e版本,理论上可实现16层堆叠、64GB容量和1.2TB/s的带宽,分别为初代HBM的2倍、9.6倍和4倍。从Trendforce公布的HBM Roadmap来看,2024年上半年,海力士、三星、美光均会推出24GB容量的HBM3e,均为8层堆叠。2024年下半年,三家厂商将推出36GB版本的HBM3e,或为12层堆叠。此外,HBM4有望于2026
5、年推出。HBMHBM制造集成前道工艺与先进封装制造集成前道工艺与先进封装,TSVTSV、EMCEMC、键合工艺是关键键合工艺是关键。HBM制造的关键在于TSV DRAM,以及每层TSV DRAM之间的连接方式。目前主流的HBM制造工艺是TSV+Micro bumping+TCB,例如三星的TC-NCF工艺,而SK海力士则采用改进的MR-MUF工艺,在键合应力、散热性能、堆叠层数方面更有优势。目前的TCB工艺可支撑最多16层的HBM生产,随着HBM堆叠层数增加,以及HBM对速率、散热等性能要求的提升,HBM4开始可能引入混合键合工艺,对应的,TSV、GMC/LMC的要求也将提高。3摘要摘要摘要摘
6、要 AIAI刺激服务器存储容量扩充刺激服务器存储容量扩充,HBMHBM需求强劲需求强劲。随着云计算厂商将更多资本开支投入AI基础设施,AI服务器ODM对2024年展望乐观,预计2024年AI服务器出货量继续大幅增长。相较于一般服务器而言,AI服务器多增加GPGPU的使用,以NVIDIA A100/H100 80GB配置8张计算,HBM用量约为640GB,超越常规服务器的内存条容量,H200、B100等算力卡将搭载更高容量、更高速率HBM。我们测算,随着算力卡单卡HBM容量提升、算力卡出货量提升、技术迭代带来单GB HBM单价提升,2023年HBM市场规模为40亿美元,预计2024年增长至148