当前位置:首页 > 报告详情

Session 16Highlighted Chip Releases_ Digital and Machine Learning Processors.pdf

上传人: 张** 编号:620803 2025-03-31 14页 10.95MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文主要介绍了四款最新的数字处理器和系统,它们针对AI加速和高性能网络进行了产品化改进。这些创新包括用于AI处理的新颖架构、复杂的内存架构和先进的交换芯片设计。这些工作展示了在各种应用中,从移动设备到数据中心,AI能力、能效和可扩展性的显著提升。 1. 三星电子推出了Exynos 2400 SoC,用于Galaxy S24智能手机。该芯片采用4nm EUV工艺,支持设备上AI,具有异构NPU架构,包括向量引擎和两种类型的张量引擎。该4nm SoC通过使用扇出晶圆级封装技术改善了热散逸,实现了AI性能的提升。 2. FuriosaAI推出了5nm推理芯片RNGD,利用张量收缩中的并行性和数据局部性,采用HBM3内存、切片冗余和高带宽NoC。它提供了256TFLOPS/512TOPS的性能,并实现了对GPT-J的12.3查询/秒,准确率达到99%。 3. Broadcom推出了Tomahawk5,这是一款用于数据中心和AI环境的交换芯片,提供51.2Tb/s的交换容量。该芯片包括512个106.4Gb/s PAM4 SerDes通道,支持多种I/O配置,具有168MB共享缓冲区架构,并设计为单片芯片,具有9,352个引脚和六个ARM处理器核心。 4. SambaNova Systems推出了SN40L,这是一款5nm 2.5D数据流加速器,具有三层内存:片上SRAM、片上HBM和片外DRAM。该芯片采用双芯片设计,每个芯片包含1020亿个晶体管,提供640 BF16 TFLOPs和520MB片上SRAM。SN40L的数据流架构和三层内存系统旨在在计算大型语言模型(LLM)时比GPU更节能。
三星Exynos 2400如何通过FOWLP提高AI性能? FuriosaAI的RNGD芯片如何优化大型语言模型推理? SambaNova SN40L如何实现万亿参数AI模型的训练?
客服
商务合作
小程序
服务号
折叠