1、 敬请参阅最后一页特别声明 1 摘要-NVIDIA 发布了内存增强版 Blackwell 产品 Blackwell Ultra。NVL7 规格显示,单卡 Dense FP4 算力较 B200 提升 50%,HBM 配置升级至 288GB HBM3e。网络层面,采用 ConnectX 8 网卡替代 ConnectX 7,进一步提升性能。Blackwell Ultra 预计于 2025 年下半年出货。此前市场预期的 GB300 采用“SXM Puck”形式及 BGA 封装的设计未在本次发布会上得到确认,整体发布符合市场预期。-NVIDIA 发布了 Blackwell 继代产品 Rubin 和 Ru
2、bin Ultra,并统一了 GPU die 计数标准。以 Rubin NVL144 为例,内含 144 颗 die,实际由 72 颗 Rubin 芯片组成。Rubin Ultra 单颗芯片整合 4 颗 die,NVL576 内仅有 144 颗 Rubin Ultra 芯片,低于此前预期的 NVL288。Rubin Ultra 采用纵向 Tray 结构,优化了机柜空间,预计将在大规模 Scale Up 场景中成为主流。值得注意的是,相较于 GTC 2024 发布的路线图,Rubin 系列的产品节奏出现约半年延迟,首款 Rubin 产品推迟至 2026 年下半年上市,而 Rubin Ultra
3、则需等待至 2027 年下半年,整体进度不及市场预期。此次延迟或与制程、封装及机柜层面的技术挑战有关,成为市场反应不佳的主要原因之一。-NVIDIA 发布了 Spectrum-X Photonics 和 Quantum-X Photonics 硅光交换机平台,单端口速率达 1.6 Tb/s,总带宽最高 400 Tb/s,显著提升数据中心传输性能。Spectrum-X Photonics 提供最高 512 个 800 Gb/s 端口,Quantum-X Photonics 提供 144 个 800 Gb/s InfiniBand 端口,采用 200 Gb/s SerDes 技术,进一步提升传输效
4、率。该系列交换机提升了 AI 集群的扩展性,为超大规模数据中心提供更优解决方案。-NVIDIA 发布了 DGX Spark 和 DGX Station,进一步推动 AI 超算向个人桌面端普及。DGX Spark 采用 GB10 Blackwell Superchip,具备 128GB 统一内存和最高 4TB SSD,算力达 1,000 TOPS。DGX Station 搭载更强的 GB300 Blackwell Ultra Superchip,AI 性能达 20 PFLOPS,配备 784GB 统一内存,满足更高强度的 AI 训练和推理任务,进一步拓展 AI 计算的应用场景。-NVIDIA 发
5、布了开源推理服务框架 NVIDIA Dynamo,旨在优化大规模 AI 模型的推理部署。Dynamo 在运行 DeepSeek-R1 模型时,将请求处理能力提升多达 30 倍。其性能提升得益于解耦的 Prefill/Decode 阶段、动态 GPU 调度、LLM 感知请求路由、加速 GPU 间异步数据传输及 KV Cache 跨内存层级卸载机制。Dynamo 已在 GitHub 开源,并集成至 NVIDIA AI Enterprise 的 NVIDIA NIM 微服务,助力企业更高效部署 AI 推理模型。风险提示 芯片制程发展与良率不及预期 中美科技领域政策恶化 智能手机销量不及预期 行业周报
6、(简报)敬请参阅最后一页特别声明 2 扫码获取更多服务 内容目录内容目录 内存加强版 Blackwell 产品 Blackwell Ultra 正式发布.3 Vera Rubin 及后续产品 Roadmap 发布.4 推出首个硅光交换机产品.5 个人 AI 电脑 DGX Spark 与 DGX Station.6 开源分布式推理服务库 Dynamo.7 风险提示.7 行业周报(简报)敬请参阅最后一页特别声明 3 扫码获取更多服务 内存加强版 Blackwell 产品 Blackwell Ultra 正式发布 英伟达正式发布其内存增强版 Blackwell 产品 Blackwell Ultra,