当前位置:首页 > 报告详情

王全东-SUBLLM新架构文本下采样机制革新大语言模型效率.pdf

上传人: 鲁** 编号:615367 2025-03-03 48页 5.59MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文介绍了小米AI实验室高级工程师王全东博士等人提出的SUBLLM新架构,该架构通过下采样、上采样和旁路模块,动态地将资源分配给重要的token,有效地测量token重要性分数并按预期控制分数值的分布在推理过程中实现所需的下采样保留率。实验结果显示,SUBLLM在训练和推理方面分别实现了加速,训练加速34%,推理50%,同时显着降低了内存成本,保持了模型能力。此外,文章还探讨了长文本模型的技术挑战以及现有解决方案,并展望了SUBLLM在未来长文本场景和多模态模型中的应用前景。
"SUBLLM新架构如何革新大语言模型效率?" "如何通过下采样提高大模型训练和推理效率?" "SUBLLM在长文本处理上有哪些应用前景?"
客服
商务合作
小程序
服务号
折叠