系统管理中的基础问题
打包软件一直是系统管理中的一大基础问题。它非常重要,对系统的使用方式有着巨大影响,甚至让包管理器成为区分操作系统的一项重要指标。
以 Windows 为例:在很多“Linux 派”眼中,这款操作系统最不讨喜的就是缺乏包管理机制,微软先后多次尝试引入这个概念也都没能得到广泛认可。相比之下,Linux 世界中各发行版间的主要区别,就集中在其管理软件 repo 的方式上。我所指的不只是 dpkb 和 rpm 之间的差异,而是在强调更底层的设计,例如硬性指定还是上游配置、稳定 repo 还是滚动发布。拿 RHEL 和 Arch 来说,二者虽然共享绝大多数实现,但管理风格却截然不同。
大多数 Linux 发行版都会明确强调某种软件应该如何打包(甚至规定了多久打包一次),而且这些系统也都有着一项共通理念:将依赖项集中起来。应该把库声明为依赖项,并把所依赖的包安装在公共位置以供链接器使用。但这也可能带来挑战,因为不同的软件往往依赖于不同的库版本,而各版本之间可能并不兼容。这也是在维护 Linux 发行版时最典型的老大难问题:如何提供能够良好协作的软件 repo 版本。像 RHEL 这类稳定发行版的一大优势,就是它们在这方面表现得相当可靠;至于缺点,就是这种可靠性其实是通过拒绝大部分新版本软件来实现的。
由于需要提供大量可以相互兼容的软件版本,并确保发行版遵守各种构建规范(例如支持自由软件等开发理念、以及配置文件布局等具体规则),所以向 Linux 发行版引入新软件时往往极度麻烦且繁琐。对于软件维护人员来说,他们需要面对一大堆有着特定构建和配置差异的旧版本,并想办法把它们塞进发行版中去。而在发行版和软件包维护者这边,则需要全盘考虑各种上游软件是否符合发行版策略,并解决版本和依赖项问题。虽然行业中已经出台了一系列相关规范,但具体操作仍然令人头痛,庞大的工作量也几近疯狂。
这就形成了一种双输的诡异局面:希望自己的软件能够广泛传播的开发者必须忍受发行版的怪癖,而想要壮大自身软件生态的发行版也得顺应开发者。每个人都不开心,每个人都很疲惫。
有问题,自然有人尝试解决。业界已经在这方面做出了各种探索,但也正是因为方法多种多样,所以至今没有真正出现一种能够统领全局的解决方案。在桌面环境中,常见的软件分发选项有 Flatpak、Snap 和 AppImage 等。这些系统的镜像或应用程序能够将软件及其依赖项共同打包,提供一套完整的独立环境,从而保证在任何发行版上都能正常工作。
但在实际使用时,我自己曾不止一次对 flatpak 文件进行逆向工程以修改其中的依赖项,所以说上述工具的宣传效果在日常应用时并不一定能发挥作用。但公平地讲,软件在与各种要素的交互过程中,难免会出现意料之外的状况——比如运行时无法正确将各种要素彼此隔离开来。视频技术栈就是个典型,我们往往需要删除或替换掉包中错误的 OpenGL 库,才能使其跟特定图形驱动程序共同运行。
尽管如此,我还是承认上述工具的运行效果不错,甚至值得进一步扩展并普遍使用。它们所依托的桌面应用形式主要强调与用户交互,并通过自身界面接收用户发来的配置选项。尽管在与文件系统交互时仍然不够顺畅丝滑,但这种将交互界面限制在 GUI 形式内的作法确实让沙箱变得既可行、又极具现实意义。
需要强调的是,本文不会对沙箱问题做过多延伸。沙箱是一项重要的安全和稳定性保障技术,但这里讨论的主要是软件打包和分发问题。毕竟沙箱软件也可以通过更传统的方式进行分发,在其现代外壳之下的打包机制其实远没有人们想象的那么先进。
让我无法忍受的是什么?
总而言之,我想抱怨的其实是服务器端的软件运行体系。这里的软件打包方案基本只有一个:Docker。当然,人们偶尔也会使用 Podman 等兼容性的工具选项。
Docker 的出现被广泛视为服务器运营最佳实践的里程碑事件。尽管 Docker 是一种软件分发方式,但其最初似乎主要是为了将容器编排引入大规模可扩展环境。但最终随着不断发展和思想融合,Docker 成为一种面向开发者和单节点用例的常见软件分发方式。
现如今,Docker 也成为 Linux 上最常见的服务器端软件分发选项。而我,对它恨之入骨。
千万别误会,我在这里要批评的并不是容器技术本身。容器化非常精妙、有着诸多优点,虽然未必像炒作中说的那样全面碾压轻量化虚拟机,但它的亮点还是非常突出。我不太确定 Docker 帮助节约的时间有没有超过对它的管理成本,但公平地讲,身为一名 DevOps 顾问,实践经验告诉我正确运行 Docker 镜像并不算特别麻烦。
真正让我无法忍受的,就是在非 DevOps 环境中盲目使用 Docker 镜像。镜像需要集中规划和管理,也就是说 Docker 应该是向用户分发软件时的最小公共集,应该是种最低的保障性选项。而每当看到开源服务器端软件以 Docker 镜像的形式提交过来,甚至是更糟糕的 Docker Compose 栈时,我的第一反应就是愤怒。跟传统 Linux 软件包分发、或者使用源代码直接构建的软件相比,Docker 镜像总是需要耗费更多时间才能正常起效。
很多朋友可能不太理解,Docker 不是把所有元素都独立隔离开来,降低了部署难度吗?确实,但接下来我打算聊几个常见问题,也就是“Docker 不适用的情况”。
配置
Docker 在分发中最大的问题之一,就是缺少统一的配置约定。
绝大多数服务器端 Linux 软件需要读取文本文件来获取配置,这种古老的方式当然有自己的问题……但至少它有着统一的框架和准则。
可 Docker 镜像就不同了。
如果大家听说过 12 因素应用原则,就会意识到 Docker 镜像的最佳配置方式应该是通过环境变量。这样做的好处在于,启动容器时可以在命令行上轻松实现;至于缺点,就是环境变量不太适合传递结构化数据,而且由于大多需要通过 shell 脚本进行交互,这些脚本在处理长值或复杂值也显得比较笨拙。
DevOps 环境中使用的许多 Docker 镜像确实会从环境变量中获取配置,但出于前面这些现实问题,它们往往要通过避免复杂配置(例如假设 TLS 将被「他方」终止)或者控制信息获取量来实现。而配置内容,则来自网络上的数据库或服务。
不过对于大多数最终用户软件来说,其配置过于复杂或冗长,单靠环境变量根本无法容纳。这时他们就只能求助于配置文件,即以某种方式将配置文件纳入容器的文件系统当中。Docker 倒是提供了多种操作执行方式,于是不同软件包的文档会根据相关推荐而有所区别,甚至经常触发关于所有权和权限的警告。
更糟糕的是,很多 Docker 镜像还试图通过提供某种入口点 shell 脚本来降低配置难度,这些脚本负责向容器提供更简单的文档以生成完整配置。这种抽象级别在实践中往往缺少相应的记录痕迹,这就让故障排查变得更加困难。
我自己就无数次经历过软件无法正常启动的“惊喜”,原因就是脚本引用了一些配置中未提供的键,导致我们必须查阅 Docker 镜像构建说明和入口点脚本来反推它的启动过程。这好吗?这一点也不好。
最要命的是,很多配置入口点脚本还有自己的设计倾向性。别看“设计倾向性”这词好像比较中性,但它的真实含义就是“除了开发者自己,别人都弄不明白”。我至少有十几次都被迫自己构建 Docker 镜像版本,来替换掉那些没有公开底层软件参数的入口点脚本。
更夸张的是,某些 Docker 镜像甚至根本不提供任何说明文档。用户必须深入研究、四下探寻,才能找出当前软件所使用的配置文件的具体位置。我认为 Docker 镜像至少也得给出最基本的 README 信息,帮助我们了解打包的软件到底应该如何配置。
文件系统
Docker 提供的沙箱或者说隔离机制肯定是个优点,但这也代表着它必然有着一切沙箱所面临的共同问题。
沙箱隔离机制跟 Linux 的文件系统兼容性很差,哪怕不涉及 UID 行为、单纯在 Docker Compose 栈中使用命名分卷就足以引发意外。在需要使用虚拟容器跟命名分卷中的文件进行交互时,比如执行备份之类的日常操作(都不说故障排查这类更复杂的需求),结果都很可能让人头痛欲裂。随着时间推移,命名分卷得到了大幅改进,但看似简单的操作在不同 Docker 版本之间仍经常出现奇怪的冲突,更不用说还得考虑如何兼容 Podman 等其他工具了。
当然,UID 也有自己的问题。Docker 的一大原罪,就是要求以 root 身份运行软件。
没错,Docker 确实提供一定程度的隔离,但从纵深防御的角度来看,以 root 身份公开运行用户操作仍然不是明智之举。为此,我需要频繁重构软件来适应 Docker 的这种怪癖,而且整个过程相当复杂。而且在稍微繁琐的环境中使用 Docker,都有很大概率引发涉及 UID 分配的 NFS 难题。使用命名分卷当然能缓解这些问题,但分卷本身又有自己的痛点,简直是要人老命。
容器可移植性很差
对于强调分布式特性的 Docker(特别是 Docker Compose)来说,最讽刺的还在于很多常规实践会大大影响其可移植性。
在 Docker Compose 中对网络执行的任何非默认操作,都有可能导致其在网络设置比较复杂的计算机上无法正常工作。很多 Docker Compose 栈都会将那些众所周知的端口默认为可供侦听器使用。它们还会启用各种底层软件功能,又不提供禁用的方法,甚至用到很多在具体环境中并不可用的通用值。
就个人而言,最让我恼火的就是 TLS。前文已经提到,我认为 Docker 容器不应该终止掉 TLS。只有接受 TLS 连接,才允许访问私钥信息。尽管长达 90 天的临时 TLS 证书和普遍懈怠的安全意识已经破坏了保障能力,但我仍然认为私钥信息应该受到严密保护。这部分信息只应存储在一个位置,且只能由一名主体进行访问。当然,能不能实现这种安全破坏还在其次,很多用户可能根本就搞不定 TLS 配置。
不少自行托管软件的朋友都会选择 SNI 或者虚拟托管的方式,其中往往存在涉及多个子域的通用证书。这一切最好都能在少量、甚至是单一专用点上处理。而一旦遇到在构建中假设在各个点上单独处理 TLS 的 Docker 镜像,可就倒了大霉了。即使完全不考虑 TLS,我个人也永远不想把 Docker 应用容器直接暴露在互联网上,在前面部署反向代理才是正确的选择。
此外,Docker Compose 栈还总想要使用 ACME 为最终用户软件颁发自有证书,我们得深入研究说明文档才能搞清如何禁用这一行为。
单一用途计算设备
我前面说的这些问题在业余人士开发的软件中最为常见,我现在脑海中就浮现了 HomeAssistant 和 Nextcloud 这两个例子。请别误会,我所说的“业余”并不质疑软件本身,而是在强调普通用户的使用习惯。
遗憾的是,由于 Raspberry Pi 设备的价格越来越低廉,很多业余爱好者失去了那份严谨态度。可能我说的有点夸张,但他们在专用硬件上运行的“自托管”软件包已经多到了荒谬的程度。在我看来,软件名称中带有“pi”基本就是个危险信号,代表着开发者“没考虑过在共享设备上运行需要做哪些改动”。大家可以说是我太守旧,但我认为计算设备就不该只能执行一项任务,特别是那些需要 24/7 全天候开机的设备。
HomeAsistant 可能就是其中最大的罪魁祸首,我自己就在一台设备上通过 Docker 运行它,还有其他几款应用程序。但 HomeAsistantr 明显不想跟其他软件共存,每次更新后都会弹出“检测到不支持软件”的提醒。这也太过分了,有必要管得这么宽吗?
后来我决定尝试一下 Nextcloud,大概花了两个小时想让打包的 Docker 镜像在自己的环境上正常运行。最终,我决定放弃并转为手动安装,结果发现它就是一款平平无奇的 PHP 应用,跟十几年前的程序没有任何区别。这么简单的东西,你把它打包成 Docker 镜像干什么嘛?直接用 config.php 不好吗?
“罪大恶极,罄竹难书”
当然,大家可能觉得前面的问题都是操作细节,只要认真制作 Docker 镜像就能避免。没错,确实可以!也许 Docker 最大的问题就是它“门槛太低”了。创建 RPM 或者 Debian 软件包就有一定的技术难度,即使是经验丰富的开发者需要多次尝试才能让 rpmbuild 顺利运行起来(这里建议只用 copr 和 rpkg)。
我的抱怨在于,纯以 Docker 镜像的形式做分发,往往代表着开发者并没有对自己的项目投入足够的心力、或者至少没有专门做过项目分发设计。要想让自己的成果在各种非标环境中运行起来,就一定得预先考虑到可能出现的意外。
当然,大家应该能明白,我的用词只是种夸张和讽刺。我曾经把 Docker 誉为稳定可靠的终极解决方案,只是后来发现必须得有一定的配置经验和管理水平才能实现。
写在最后
当然,以上只是我的一点个人观点,相信很多朋友会抱有完全不同的意见——比如我坚信 Docker Compose 是容器时代最大的错误之一。
15 年前我曾写过一篇类似的文章,讲述自己在开发小型项目时在 RPM 中遇到的各种问题。Docker 最让我惊讶的一点,就是它能让项目发展到很大的规划、获得企业的广泛支持,同时还通过 Docker Compose 栈大大降低了分发的技术门槛。
我在前面提到的很多问题也确实源自这种“简单性”,因为很多项目根本就没有固定的分布式工程人员。面对不断变化的软件发展格局,他们只是想用廉价的单片机搭配上 Docker 容器技术,回避掉相对更麻烦的虚拟机镜像。当然,我也承认随着年纪愈长,我这人说话也越来越不中听了。
原文链接:
https://computer.rip/2023-11-25-the-curse-of-docker.pdf