当前位置:首页 > 报告详情

12-Sharing GPUs among multiple containers- 李孟轩.pdf

上传人: 张** 编号:621017 2025-03-31 17页 1.34MB

word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文探讨了在Kubernetes集群中多个容器共享GPU的可行性。由于GPU资源以独占方式分配给容器,以及GPU制造商不断推出更强大、价格更高的产品,导致GPU设备在集群中的利用率低。文章介绍了几种提高GPU利用率的方法,包括NVIDIA TimeSlice、MIG、MPS和HAMi-Core。 NVIDIA TimeSlice将多个容器直接放入GPU中,实现了无资源控制和无开销。MIG将GPU分割成多个MIG实例,实现了资源隔离和低开销,但仅适用于Ampere或更晚期的GPU。MPS将多个容器的任务合并到一个单一上下文中,提高了性能,但也带来了高风险。HAMi-Core是一个第三方资源控制器,提供了资源隔离、故障隔离和易于集成的特点。 在调度方面,文章提到了NVIDIA DRA和Volcano Scheduler。DRA是一种即将推出的Kubernetes特性,将资源调度交给第三方开发者。Volcano Scheduler是一个优化器,负责将任务分配给适当的节点。 总之,本文讨论了在Kubernetes集群中实现GPU资源共享和提高利用率的多种方法,并对每种方法的优缺点进行了分析。
"GPU资源如何在Kubernetes中高效共享?" "如何在Kubernetes集群中实现GPU资源的细粒度控制?" "针对多租户场景,Kubernetes如何保障GPU资源的隔离与安全?"
客服
商务合作
小程序
服务号
折叠