Skip to content

envd:配置深度学习炼丹环境的新选择

在训练和调试深度学习模型时,经常需要在数据服务器、训练服务器、本地调试环境等等之间来回穿梭。这就是目前每一个算法工程师的工作现状。

而这个过程充满了痛苦,我们不得不与各种各样的工具和系统搏斗。一行行查 Manual 写出来的 Bash 脚本、花样繁多的 Dockerfile、Kubernetes YAML 配置。当然,一定少不了最让人头秃的 CUDA 相关问题了。

A: 你的代码在我这里跑不起来啊,报错 CUDA 版本不一致

B: 啊?在我这里是好的啊

envd 希望能够让 AI/ML 领域的环境配置不再让人困扰。envd 为使用者提供了通过 Python 来描述环境的可能。你甚至不需要专门学习就能利用 envd 来完成一些复杂的环境构建过程。

python
def build():
    base(os="ubuntu20.04", language="python")
    install.cuda(version="11.2.2", cudnn="8")
    install.python_packages(name=[
        "tensorflow-gpu"
    ])

其次 envd 仍在支持更多的运行时,其中包括 Kubernetes、远端服务器、本地 Docker 或 Podman 等。确保使用者可以在任何地方都可以自信地进行模型训练和推理。这一切都是建立在不需要了解 Kubernetes 等基础设施的基础上。作为基础设施领域的工程师,我们坚信,使用 Kubernetes 体验最好的方式就是你永远不需要了解它。

最后,在 AI/ML 的场景下,envd 的构建速度比 Docker[1] 快 6 倍。更快的构建帮助使用者更快地迭代模型。

envd 的起源

让我们回到 envd 出生的那天。2022 年初,我和我的朋友金晶聊起了我们在 AI/ML 领域遇到的令人讨厌的问题。

问题非常多,但是要说最烦人的,毫无疑问是与训练开发环境相关的一系列问题。作为 AI 基础设施的工程师,我最常被我所服务的算法工程师们问到的问题包括但不限于:

  • 为什么我用 Docker 跑起来的容器跟我的本地环境不一致?
  • 之前跑的好好的,为什么今天跑就 CUDA 报错了?
  • 为什么我只是 docker commit 了一下提交了一个不到 10MB 的依赖,你一下把我的镜像搞大了 2GB?
  • ...

于是我们就此陷入了对各自遇到的稀奇古怪的环境问题的吐槽中去了。讨论结束后,我们一起脑洞了一个好的体验应该是什么样子的。这就是 envd 的由来。

问题在哪里

我们认为,目前体验糟糕最主要的原因,在于目前 AI 基础设施领域的产品或项目,都是面向基础设施的(Infrastructure oriented)。它们更像是为基础设施工程师设计的,而不是为终端用户:算法工程师和数据科学家们设计的。所以这些产品都以资源利用率、GPU 共享、完善的运维支持等为卖点。

但,我们作为基础设施工程师和算法工程师在技术背景和使用习惯等方面都有着显著且不可忽视的差异。这些差异都使得算法工程师们并不能很好地使用那些原本就是面向基础设施工程师设计的产品,比如 Kubernetes。

当然,我们也坚定地认为不应该让算法工程师们学习如何使用 Kubernetes。Kubernetes 能够做绝大多数你想做的事情,你甚至还能利用 Kubernetes 管理喷气式飞机。但是它就像是 Cloud 时代的 Linux kernel,没有道理让每一个工程师都了解内核的工作原理吧。

如果把问题聚焦在 AI/ML 领域,那么更进一步,Docker 也可以被更简单的抽象。我们相信也没有算法工程师想了解 containerd、runc、buildkit、OCI spec 这些底层晦涩的知识。

envd 的语言设计

所以,envd 希望能够将这些目前已经在工业界广泛使用的基础设施,面向 AI/ML 领域进一步抽象,为算法工程师和数据科学家团队们提供更加简单易用的工具和产品。envd 的愿景是使用者再也不需要关心基础设施,只需要通过 TensorFlow、PyTorch、Jax 等框架开发模型即可。

为此,envd 引入了基于 python 的构建文件 build.envd。它不再像 Kubernetes 的 YAML 配置或者是 Dockerfile 一样,而是围绕 AI/ML 的模型开发与推理来进行。envd 构建出来的仍然是兼容 OCI spec 的镜像。因此使用者可以像使用普通的镜像一样使用 envd

下面是一个非常简单的示例。展示了如何构建一个 PyTorch 的 GPU 环境。

为了能够在 Kubernetes、远端服务器等不同的环境下使用 envd 构建的环境,我们维护了一个非常轻量级的 sshd 的实现,并内置于其中。因此用户可以通过 ssh 协议连接到环境进行开发和调试。当然,你可以可以通过 envd 提供的语法在环境中安装需要的 vscode extension,或者是配置使用 Jupyter。

python
def build():
    base(os="ubuntu20.04", language="python3")
    install.vscode_extensions([
        "ms-python.python",
    ])
    # Configure jupyter notebooks.
    config.jupyter()
    # Configure zsh.
    shell("zsh")

envd 的构建速度

因为聚焦在 AI/ML 领域,因此我们对 Docker 和 buildkit 的使用进行了针对性的优化。使得在这一场景下的 envd 构建速度比 Docker[2] 快 6 倍

这得益于 envd 在各个层次上的 cache。举个例子来说明,在 Docker 中如果 Dockerfile 前面的命令缓存失效了,那么后续的命令都要重新执行,也包括 pip install 命令。它需要重新下载。

envd 会在多次构建间维护 pip index 的 cache,使得后续的构建不需要再重新下载 wheel,只需要使用已经被缓存的包即可。

envd Docker
diff
$ envd build
=> pip install tensorflow       5s
+ => Using cached tensorflow-...-.whl (511.7 MB)
diff
$ docker build
=> pip install tensorflow      278s
- => Downloading tensorflow-...-.whl (511.7 MB)

除了各个层级的 cache 之外,envd 的构建过程是自动并行的。比如,使用 apt-get install 安装系统依赖和 pip install 安装 python 依赖时是可以并行执行的,而不需要如同 Dockerfile 的实现一样,需要等待 apt-get install 执行完再执行后续的构建过程。

在你的团队中使用 envd

envd 不只是面向个人使用者设计的,它更是要解决算法团队在环境管理上的问题。

在一个团队里,通常大家会基于相似的基础配置进行修改的方式配置环境。在之前只能通过口耳相传的 Dockerfile 进行。而在 envd 中可以定义 python 函数来完成。下面例子中,envd.tensorboard 就是定义在其他 Git repo 中的构建函数。用户可以通过 include 引入后直接复用,而不需要再复制粘贴过去的 Dockerfile 了。

在团队内以 envd 中函数的形式把各种依赖的安装方式积累下来,形成 envd Hub(目前这一功能仍在设计中),这就是团队的环境管理知识库。

python
envdlib = include("https://github.com/tensorchord/envdlib")

def build():
    base(os="ubuntu20.04", language="python")
    envdlib.tensorboard(8888)

结论

envd 目前仍处于非常早期的阶段,我们只是踏出了第一步,帮助算法工程师和数据科学家团队关注于 AI/ML 业务,而非基础设施。在近期 envd 会着眼于更好的团队需求支持,提供更加完善的 Kubernetes 运行时。

欢迎大家保持关注!

🍻


Ce GaoCe Gao 是 envd 的维护者之一。与此之外,他还是机器学习基础设施开源项目 Kubeflow 的 Co-chair。他主要关注机器学习的模型训练、自动机器学习等领域。

  1. Dockerfile v1 ↩︎

  2. 300Mbps 带宽网络环境下的 Dockerfile v1 ↩︎

Released under the Apache-2.0 License. Built with VitePress.