当前位置:首页 > 报告详情

2020年终大会-自然语言处理:6-5.pdf

上传人: li 编号:29866 2020-12-01 28页 2.13MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文主要介绍了字节跳动AI实验室的LightSeq系列成果,包括在NLP序列推理、模型压缩量化以及TVM应用方面的突破。LightSeq针对NLP序列模型推理进行了优化,支持Bert/GPT/Transformer等模型,以及不同的推理策略。其优化方法包括算子多运算融合、动态显存复用和层级式解码计算等,显著提高了模型推理性能,降低了延迟。在模型压缩量化方面,LightSeq通过层参数共享、词向量分解等方法,在保持模型精度的同时降低了参数规模。TVM方面的背景是提升计算密集型运算性能,并具备多端部署能力,通过引入TVM代码自动生成与参数搜索,实现了动态形状量化,并优化了序列模型。LightSeq已在火山翻译、NeurST、mRASP等多个场景得到应用,展示了其在性能和功能上的优势。
"LightSeq如何实现高性能NLP序列推理实践?" "ByteDance AI Lab的LightSeq在模型压缩量化方面有哪些突破?" "TVM如何提升计算密集型运算性能并实现多端部署?"
客服
商务合作
小程序
服务号
折叠