第 3 节

Docker直通

USB直通

  1. 方法一(不是很推荐新手):

创建容器的时候把需要的设备加在红色部分这里即可。可以通过下面的命令查看想要的设备的名字。

ls /dev
#例如
--device=/dev/tty_USB0
  1. 方法二(个人更加推荐,不用重新再挂载了,虽然安全性会降低,但是别人利用安全权限能够攻击你的概率很低很低,企业服务器才需要提防):
--privileged

直接添加一行绿色部分,然后所有设备都会被挂载到docker了。(红色部分就不用写了)

NVIDIA显卡直通

NVIDIA Container Toolkit使用户 能够构建和运行GPU加速的容器 。该工具包包括一个容器运行库和实用程序,用于自动配置容器以利用NVIDIA GPU。

https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html

安装

(尽量能看官方就看官方的,安装方式可能会更新)

Ubuntu
  1. 配置存储库 并更新
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
  && curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
    sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
    sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list \
  && \
    sudo apt-get update
  1. 安装nvidia-docker2
sudo apt-get install -y nvidia-docker2
  1. 使用nvidia-ctk命令配置container runtime
sudo nvidia-ctk runtime configure --runtime=docker
  1. 重启docker服务:
sudo systemctl restart docker
Fedora
  1. Configure the production repository:
curl -s -L https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo | \
sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo
  1. Optionally, configure the repository to use experimental packages:

# 如果是RHEL或者Rocky(DNF4)
sudo dnf config-manager --add-repo https://nvidia.github.io/libnvidia-container/stable/rpm/libnvidia-container.repo

# 如果是Feodra41+(DNF5)
sudo dnf config-manager addrepo --from-repofile=https://nvidia.github.io/libnvidia-container/stable/rpm/libnvidia-container.repo
  1. Install the NVIDIA Container Toolkit packages:

# 如果是RHEL或者Rocky
sudo dnf install -y nvidia-container-toolkit

# 如果是Fedora
sudo dnf install -y nvidia-container-toolkit
  1. 安装nvidia-docker2 : 在Fedora上使用dnf进行安装。
sudo dnf install -y nvidia-docker2
  1. 使用nvidia-ctk命令配置容器运行时 : 这个命令用于配置NVIDIA Container Toolkit与Docker集成。命令如下:
sudo nvidia-ctk runtime configure --runtime=docker
  1. 重启Docker服务 : 完成配置后,必须重启Docker服务以使更改生效:
sudo systemctl restart docker

这些步骤执行后,Docker将使用NVIDIA Container Runtime,并支持GPU加速的容器运行。你可以使用nvidia-smi命令来验证容器中的NVIDIA GPU是否可用。

测试是否可用

  1. 运行nvidia cuda 容器进行测试

可以使用下面指令进行测试,docker会自动从nvidia/cuda拉取11.0.3-base-ubuntu20.04镜像,并创建一个运行一次即删除的容器。

sudo docker run --rm --gpus all nvidia/cuda:11.0.3-base-ubuntu20.04 nvidia-smi

Docker配置CUDA和CuDNN

如果你不需要自己创建Docker镜像,直接使用学长或者其他人创建好的镜像,则不用看该章节,容器的CUDA和CuDNN是和本地完全隔离的环境,你本地有没有CUDA都无所谓,但英伟达驱动版本必须满足CUDA的最低版本要求。

下面是如果你想自己创建镜像,则可以在学会如何创建容器的镜像后再回来看本节:

https://hub.docker.com/r/nvidia/cuda

在上方这个网站中,英伟达都帮我们配置好了CUDA和CuDNN了,我们根本不需要自己去配置了,比传统方式要简单太多太多了。

我们只需要找到对应的Docker镜像当底包即可。

CUDA镜像有三个类型,如下,如果我们需要编译OpenCV4,那么需要使用devel版的CUDA。

镜像类型适用场景示例标签大小
base仅需 CUDA 运行时库12.4.0-base-ubuntu22.04~240MB
runtime部署编译后的应用(含数学库)12.4.0-runtime-ubuntu22.04~2GB
devel开发环境(含编译工具)12.4.0-devel-ubuntu22.04~3GB

我示例一个,比如我想用在Ubuntu24.04上用CUDA12.6和CuDNN,那么就选择nvidia/cuda:12.6.0-cudnn-devel-ubuntu24.04。这个镜像既有CUDA-devel也有CuDNN,而且还是基于Ubuntu24.04的。

在dockerfile里就可以开头这么写。


# 基于NVIDIA官方CUDA 12.6和CuDNN基础镜像
FROM nvidia/cuda:12.6.0-cudnn-devel-ubuntu24.04

配置以太网

--net=host \

启动参数里加上这行即可。具体在下方。