当前位置:首页 > 报告详情

语音技术效率优化实践.pdf

上传人: li 编号:29538 2021-02-07 22页 586.89KB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文主要介绍了语音技术效率优化的实践案例。首先,颜钊和李滨两位AI实验室高级工程师基于kaldi框架,通过流式解码和GPU交互优化,实现了BATCH-AM推理的效率提升。在P4服务器上部署后,在线语音识别服务的QPS提升了3倍,尾包延时保持不变。其次,他们针对Tacotron2语音合成模型,通过优化模型结构和推理流程,如采用batch=30提高GPU利用率,优化LSTM实现,将部分OP融合和调整到GPU,手写OP融合CUDA算子等方法,实现了非流式模型实时率3倍加速,流式模型在非流式模型优化基础上4.5倍加速。此外,他们还通过低精度加速,使用half int8代替float32,有效提升了模型在带宽受限情况下的性能。
"基于kaldi的BATCH-AM推理有哪些技术方案?" "Tacotron2推理性能优化中,为何需要自定义TensorFlow OP?" "Tacotron2推理性能优化中,OP融合优化策略有哪些?"
客服
商务合作
小程序
服务号
折叠