大家好,欢迎来到IT知识分享网。
share GPUs between the pods
一:阿里云
#阿里云
https://github.com/AliyunContainerService/gpushare-scheduler-extender
share GPUs between the pods
https://github.com/AliyunContainerService/gpushare-scheduler-extender/blob/master/docs/install.md
二:字节
https://www.volcengine.com/docs/6419/
k8s部署nvidia-device-plugin
英伟达驱动所有版本下载
https://download.nvidia.com/XFree86/Linux-x86_64/
https://www.nvidia.com/Download/Find.aspx
GPU驱动安装
https://www.volcengine.com/docs/6419/68597
https://www.volcengine.com/docs/6419/
#驱动兼容列表,驱动与cuda兼容列表
https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html
#安装CUDA工具包
https://www.volcengine.com/docs/6419/69858
三:BitFusion
Bitfusion 可以将GPU内存划分为任意大小不同的切片,然后分配给不同的客户端以供同时使用
https://github.com/vmware/bitfusion-with-kubernetes-integration
四:同类方案对比
Nvidia的容器层GPU方案仅支持将整块卡映射到容器,无法在容器之间共享同一张卡
厂商方案 |
驱动管理 |
显存调度 |
显存隔离 |
算力隔离 |
拓扑感知 |
资源Quota |
Nvidiak8s-device-plugin |
支持 |
不支持 |
不支持 |
不支持 |
支持 |
不支持 |
华为volcano |
不支持 |
支持 |
不支持 |
不支持 |
不支持 |
支持 |
阿里gpu-share |
依赖nvidia-runtime |
支持 |
不支持 |
不支持 |
不支持 |
不支持 |
腾讯gpu-manager |
支持 |
支持 |
支持 |
支持 |
支持 |
支持 |
免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/163820.html