当前位置:首页 > 报告详情

使用 Triton 优化深度学习推理的大规模部署.pdf

上传人: li 编号:29551 2021-02-07 68页 3.47MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文主要介绍了NVIDIA Triton Inference Server在深度学习推理部署中的应用。Triton Inference Server是一个开源的推理服务器,支持多种深度学习框架,可以在GPU和CPU上部署,以最大化CPU和GPU的实时推理性能。文中详细介绍了Triton Inference Server的架构、特性、部署方式以及在Kubernetes上的集成。此外,还介绍了如何使用Triton进行性能分析和模型优化。文中还分享了多个客户案例,包括腾讯优图、金山云、Naver和微软等,展示了Triton在实际应用中的效果。
如何使用Triton优化深度学习推理的大规模部署? Triton如何支持多框架和多模型并发执行? Triton如何帮助企业实现AI应用的标准化和高效部署?
客服
商务合作
小程序
服务号
折叠