《赛迪:2025人工智能背景下“存算感连“发展新态势报告(17页).pdf》由会员分享,可在线阅读,更多相关《赛迪:2025人工智能背景下“存算感连“发展新态势报告(17页).pdf(17页珍藏版)》请在三个皮匠报告上搜索。
1、中国电子信息产业发展研究院集成电路研究所二O二五年四月人工智能背景下“存算感连“发展新态势1目录一、为什么是“存算感连”?二、“存”人工智能大模型迭代关键三、“算”人工智能发展核心动力四、“感”人工智能拓展领域的触角五、“连”推动人工智能技术的融合230一一、为什么是为什么是“存算感连存算感连”?3二一、为什么是“存算感连”?“存算连”一体化推动人工智能产业爆发。以英伟达、SK海力士等企业为代表的国际龙头人工智能芯片企业主要围绕“HBM(存)+H100等(算)+NVLink/IB(连)”推动了人工智能技术的爆发。“感存算”一体化受到行业关注。中国工程院罗毅院士研究团队在2022年曾发布感存算一
2、体化智能视觉芯片的展望1,而随着近几年人形机器人、VR/AR、可穿戴等行业同人工智能大模型技术的叠加,“感存算”一体化受到行业关注。我们预计“存算感连”一体化很可能成为未来方向。随着人工智能大模型向边缘、可穿戴拓展,我们认为“存算感连”很可能成为未来推动人工智能产业发展的新动力。“存算感连”一体化正成为推动人工智能产业发展的新动力 从“存算连”到“感存算”再到“存算感连”,若这种一体化趋势持续很可能打通机器人技术、视觉技术、大模型和云端等方面的技术壁垒,实现“传感获取真实世界数据训练大模型”、“大模型技术叠加机器人感知物理世界“等,推动人工智能技术达到新的高度,存储器HBM存储器成为推动人工智
3、能大模型迭代的关键器件算力计算芯片提供的算力持续增加,叠加软硬结合和边缘计算的新趋势,成为驱动产业发展的原动力传感传感器器件新材料、新结构、新工艺拓展人工智能技术的触角连接CPO等新一代连接技术推动人工智能技术整体融合“存”“算”“感”“连”1:A Future Perspective on In-Sensor ComputingJ.Engineering,2022,14(7):19-21.432二、二、“存”“存”人工智能大模型迭代关键人工智能大模型迭代关键5二二、“存”人工智能大模型迭代的关键人工智能需求推动全球HBM产能快速增加130000120000200004500045000300
4、0020000400006000080000100000120000140000三星SK海力士美光2024年2023年单位:片/月 HBM迭代正成为AI芯片更新的核心。HBM以其高带宽和高容量特性,有效缓解AI芯片面临的“存储墙”问题,一定程度上已成为人工智能芯片的主要动力之一。英伟达近期发布的Blakwell Ultra的主要迭代正是HBM。人工智能需求暴涨下,带动HBM产能快速增长。在算力强劲的增长驱动下,2024年相比2023年全球HBM产能大幅增长。韩国半导体巨头SK海力士甚至宣布,其高带宽内存(HBM)芯片的订单量已接近饱和。HBM结构示意图“存”是当前阶段人工智能芯片发展和迭代的关
5、键2025年3月18日,英伟达发布全新的Blakwell Ultra芯片,其最重要的更新就是使用了12层堆叠的HBM3e内存,显存提升至为288GBHBM与GPU芯片的结合6二二、“存”人工智能大模型迭代的关键存算一体演进图CoWoS图 未来端侧算力和能耗的双重需求,拉动LPDDR等消费电子存储器需求将继续增长。端侧算力与AI PC/手机可搭载的大模型参数量相关,或推动LPDDR等消费电子存储器增长;新型低功耗高带宽LPW(LPDDR垂直堆叠)存储器的发展,将缓解端侧AI运算带宽瓶颈和能耗问题。更多新型存储器有望替代传统存储器,推动AI算力和效能进一步提升。其高读写速度、低功耗和非易失性,成为
6、存内计算、神经形态计算等方向的未来潜在选择。存算一体可解决“存储墙”问题,将成为未来算力效率问题的潜在解决方案。存算一体的未来发展,可以解决冯诺依曼架构下的“存储墙”问题,最大限度释放算力。存算结合拉动CoWoS等先进封装进展。目前存算的紧密结合带动了CoWoS等先进封装技术,2025年台积电CoWoS月产能预计7.5-8万片,其需求将伴随算力需求爆发式翻倍增长。新型存储器节点进展LPW图存储技术的迭代将促使人工智能系统的进一步迭代735三、三、“算”“算”人工智能发展核心动力人工智能发展核心动力8二三、“算”人工智能发展核心动力 计算芯片仍是推动全球人工智能产业发展的重要动力,根据Yole的
7、预测,从2023年到2029年,GPU市场的复合年增长率为25%,到2029年,GPU细分市场收入预计将比CPU细分市场大两倍。计算芯片呈现“三大特点”算力增长、软硬结合、应用多样化 一是算力需求持续增长,新一代芯片算力仍持续倍增。B200基于台积电4纳米工艺,支持多达10万亿个参数AI模型,提供高达20 petaFLOPS的FP4算力,性能是H100的5倍。2025年3月发布的B300芯片运算效能较B200再次提升约50%(FP4)。二是软硬件持续结合,算法、软件与硬件的结合成为主流。人工智能计算方面的软降和硬件已经深度结合,例如英伟达与戴尔合作的AI工厂平台,自动配备 NVIDIA AI
8、Enterprise 企业软件,帮助部署AI 应用和解决方案。通过集成 NVIDIA NIM 推理微服务、自动化部署等功能。三是应用多样化,从CPU到GPU到XPU,硬件形态不断丰富。随着算力需求的多样化,不同类型的芯片促使更多企业开始开发AI芯片,这为博通、美满电子等设计服务公司提供机遇。博通优势在于为Google定制数代TPU的技术积累、3D/3.5D SOIC技术、高速互连与CPO技术。2025年3月18日,英伟达发布全新的Blackwell Ultra芯片,其运算速度比上一代芯片提升30倍2024年5月,英伟达和戴尔合作的“戴尔AI工厂”,将服务、软件和硬件相结合博通和美满则通过提供A
9、SIC/DSA路线的设计服务推出XPU类型的AI芯片9二三、“算”人工智能发展核心动力 随着近期FP8混合精度训练、混合专家(MoE)等更加节约算力的算法技术的出现,以微软、谷歌、OpenAI等公司“大量采购GPU+闭源模型”的技术路径不再是唯一选择,此前人工智能领域“高投资+高技术+高回报”的循环模式和发展逻辑受到挑战,单纯堆积算力的发展模式受到质疑。趋势1:单纯“堆算力”的模式受到质疑叠加“存算感连”近期的大模型开源浪潮促使企业模型训练成本骤降,直接为消费者提供推理服务的收益显著增加,激发了市场需求,为LPU(Groq)等低成本、低功耗推理芯片技术创造进一步发展的空间。同时,AI PC、A
10、I手机等基于消费电子的端侧AI推理需求很可能成为未来重要的AI发展方向。趋势2:AI PC等边缘推理芯片成为新热点 随着计算芯片的持续小型化和集成化,芯片的局部热流密度大幅上升。而算力的提升、速度的提高带来巨大的功耗和发热量正成为限制人工智能芯片性能进一步提升的重要难点。在越来越多的企业开始使用3nm以下工艺制造人工智能训练芯片后,这一问题将越发突出。趋势3:芯片集成化促使功耗和能源成为全球计算芯片全新挑战2025年3月,黄仁勋在GTC演讲中称推理让算力需求暴增100倍1038四四、“感感”人工智能拓展领域的触角人工智能拓展领域的触角11二四、“感”人工智能未来开拓发展的触角目前,传感器是存算
11、感联系统的“感官神经”,可实时采集并传递海量数据是人工智能时代智能决策与自主进化的基石。传感器过去5年发展融合创新与新兴应用场景持续释放结构性增长动能精确度和灵敏度增长了十倍成本、功耗和体积下降了五分之一市场精确度灵敏度成本功耗体积37%1000%20%未来智能传感器逐渐向低功耗甚至是自供能发展以满足可穿戴设备、物联网等场景中长时间使用需求。多模态综合感知:传感器自身的集成度更高 完整的系统解决方案:独立传感器模块与微控制器、通信模块等集成 软硬件一体化集成:操作系统和应用层无缝对接手机、可穿戴产品等新型消费电子设备发展对传感器微型化提出更高要求,甚至有的智能传感器小似针头。传感器技术与AI、
12、物联网等技术融合提高智能化水平是未来发展的必然趋势。从单一数据采集向集成AI算法的“感知-决策”一体化演进低功耗化集成化微型化智能化新材料新结构新工艺人工智能时代,这些趋势将加速演变:“三新”技术推动“四化”发展高导电性纳米材料石墨烯、锆钛酸铅压电陶瓷等三维堆叠多层结构、薄膜型压电结构等异构集成封装、MEMS与CMOS兼容、高深宽比硅通孔等12二四、“感”人工智能未来开拓发展的触角“感”能为AI提供亟需的海量数据据预测,传感器安装数量将从2018年的1万亿增长到2032年的45万亿。2032年,传感器数据采集率将超过1020bit/s。远超全人类信息数据采集率(1017bit/s)。传感器数据
13、采集率趋势数据采集2018年单位:1017bit/s11707.371传感器(2032年)传感器(2018年)全人类数据采集率传感器(2032年)传感器(2018年)全人类数据采集率全人类传感器数据采集率呈现爆发式增长,数以“万亿”计的数据将推动人工智能技术新革命但目前“感”接入人工智能系统仍面临挑战,由于通信能力、能源和信息及时性等因素限制,传感器的海量数据无法传输到云端及时处理,未来传感器数据将面临两个关键问题:数据识别:如何从众多“感”提供的海量数据汇总有效识别并压缩需要传输到云端的数据。数据安全:如何保障从端侧到云侧的数据安全性解决传感器数据识别、数据安全的关键在于提高“感”器件的信号
14、处理和后续决策的能力,以便在本地采取行动,降低对云端的依赖。数 据 来 源:2030年半导体十年计划,美国半导体研究联盟1341五五、“连连”推动人工智能技术的融合推动人工智能技术的融合14二五、“连”推动人工智能技术的融合连接是存算感连系统的“神经系统”,它不仅是数据传输的物理通道,更是确保人工智能时代下全局资源协同、实时响应的智能网络骨架。连接与存算感协同进化,逐渐凸显出存算协同化、感知实时化和推理智能化三大特点。支持存算一体化:光学互连支持分布式存储池与计算节点的动态重构,推动存算协同落地。推动感知实时化:多模态传感器数据依赖低延迟连接实现毫秒级决策,推动400G/800G光模块普及。促
15、进推理智能化:更长上下文窗口(如百万Token级记忆)要求连接带宽与内存容量同步扩展,以支持复杂推理链。连接技术的优化和升级直接驱动人工智能跨越式发展,光互联技术可以达到高速的“万物互联”。1.数据传输速率大幅提高,效率大幅提升 3-5万只800G/1.6T光模块(400Tbps)可赋能单个千卡(1000 GPU)AI集群训练。光互连技术将延迟降至1s以下,远超原来基于交换机的数据中心延迟(约10-50s),训练迭代速度提升30%。低延迟连接提升GPU利用率从40%至70%,等效降低算力成本30%。2.模型训练时间大幅缩短,成本大幅下降 万卡集群通过3.2T光互连,ResNet-50训练时间从
16、10天压缩至4小时(Google TPU v4实测)。光连接带宽每提升1倍,大模型(如OpenAI 175B参数模型)训练周期缩短40%。先进连接技术使光模块功耗从15W/800G降至8W,单数据中心年省电费超500万美元。目前英伟达的互联技术(NVlink)已迭代至第五代,处在行业领先的地位15二五、“连”推动人工智能技术的融合硅光 CPO LPO 高带宽 高集成 低功耗存算连一体化 LPO:LPO(Linear Photonic Optical,线性直驱光模块)技术通过线性直驱技术替换传统光模块中的数字信号处理器(DSP),完成了架构简化,实现了光模块的降功耗和低延迟。LPO技术在短距离数
17、据传输领域具有显著优势,尤其适用于数据中心内部的高速互连场景。与传统光模块相比,LPO光模块能够在保持高速传输性能的同时,将功耗降低30-50%,有效解决了数据中心日益增长的功耗问题。CPO:CPO(Co-Packaged Optics,光电共封装)技术具有降低信号衰减、降低系统功耗、降低成本和实现高度集成的优势。CPO有望将现有可插拔光模块架构的功耗降低50%,将有效解决高速高密度互联传输场景,主要应用于超大型云服务商的数通短距场景。硅光:硅光技术具有集成度高、带宽高、成本低等优势。通过硅光技术,可以将激光器、调制器、探测器、光波导等光器件以及驱动电路、放大器等电子器件集成在一个微小的硅芯片
18、上,实现光通信系统的高度集成化。目前,基于硅光技术的光模块产品已在数据中心、5G网络等场景中进行应用验证,行业龙头企业光模块采用硅光技术实现降本30%。更高集成度的硅光技术已经成为产业界共识的主流技术路径。2025年3月,GTC上展示的两款硅光共封芯片Quantum-X、Spectrum-XLPO、CPO、硅光新技术是未来连接技术革新的主要路径,实现高带宽、高集成、低功耗优势。16赛迪研究院集成电路研究所通讯地址:北京市海淀区万寿路27号院8号楼12层邮政编码:100846 联 系 人:周峰联系电话:010-68200215 13501037337 传 真:010-68209616 网 址:http:/ 电子邮件:思想,还是思想,才使我们与众不同研究,还是研究,才使我们见微知著17