当前位置:首页 > 报告详情

F2 - Energy-Efficient AI-Computing Systems for Large-Language Models.pdf

上传人: 2*** 编号:154982 2024-02-04 360页 23.03MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文主要介绍了国际固态电路会议(ISSCC)2024年论坛2的内容,重点关注了高效能AI计算系统在大语言模型中的应用。主要内容包括: 1. 大语言模型(LLM)的发展历程和未来趋势,包括从RNN到Transformer的演变,以及未来的增强型和情境化语言模型。 2. LLM的训练和推理在GPU和HPC系统上的应用,介绍了3D并行计算、计算与通信重叠等技术。 3. 云处理器在大语言模型推理中的应用,探讨了架构创新的历史轨迹和未来方向。 4. LLM的能耗问题及解决方案,包括计算、内存和网络的能耗分析,以及TPU在大规模优化中的机遇和挑战。 5. 边缘设备上LLM推理的加速技术,包括量化、剪枝、硬件架构优化等。 6. 高带宽内存和处理内存在生成AI时代的应用,介绍了HBM的发展和PIM技术。 7. 下一代移动处理器与大语言模型和大型多模态模型的结合,探讨了硬件软件协同设计、多模态输入输出等趋势。 总体来说,本文全面概述了LLM在AI计算系统中的应用,以及为提高其性能和能效所采取的技术创新。
"如何提高大语言模型在边缘设备的推理效率?" "大语言模型在移动处理器上的应用前景如何?" "如何通过硬件和软件的协同设计优化大语言模型?"
客服
商务合作
小程序
服务号
折叠