滴滴弹性云基于 K8S 的调度实践

上篇文章详细介绍了弹性云混部的落地历程,弹性云是滴滴内部提供给网约车等核心服务的容器平台,其基于 k8s 实现了对海量 node 的管理和 pod 的调度。本文重点介绍弹性云的调度能力,分为以下部分:

  • 调度链路图:介绍当前弹性云调度体系链路,对架构体系有一个初步的认知

  • k8s 调度能力的运用:整体介绍弹性云现在用到的 k8s 调度能力和对其的增强

  • k8s 版本的升级:介绍到从 k8s 1.12 到 1.20 跨版本升级的方案

  • 服务画像/真实使用率调度:原生的 request 调度存在着和真实使用率之间的 gap 等缺陷,尝试通过对 node 上业务做数据画像来让调度做出更符合真实情况的调度

  • 重调度:由于调度只能依据当前数据,随着业务的增长、集群机器的下线等,调度效果可能不达预期,比如会产生一些宿主机热点等,介绍重调度对这块的处理能力

  • 调度规则引擎:通用的调度策略不能满足所有业务场景,直接在调度主流程中做适配比较 hack,介绍 Galahad+Webhook 对调度资源的灵活注入从而影响最终的调度结果的能力

  • 调度稳定性建设:介绍整体调度的稳定性保障体系

调度链路图

4a5523f309907d4bcbf2b4687b651e92.png

  • kube-rescheduler:重调度模块,自动轮询集群状态,并发起异常 pod 的漂移

  • kube-odin:弹性云的上游 pass 层,用户通过 kube-odin 接入弹性云

  • galahad:调度规则引擎,按标签选取业务 pod 或 node 的调度策略存储,主要解决物理机集群差异化,快速变化的需求与 k8s 集群管理的灵活度匹配

  • kube-hook:k8s 的 mutatingwebhook 和对应服务,用于将 galahad 注入 pod 或 node

  • master:原生的 k8s 三大件

  • ipam:弹性云的 pod ip 分配模块

  • IRMAS:内核组件,包括 Odin-Agent 监控数据上报、pod quota 分配等能力

  • kube-agent:node 组件,做真实使用率数据的获取和写入

  • zhivago:基于 Prometheus 的服务画像引擎,涉及数据清洗,数据分析,数据存储,大盘展示等多个模块

k8s 调度能力的运用

涉及资源

  • 无状态服务(Deployment):弹性云最开始使用的 workload,但因为历史原因,比如要兼容业务在物理机时代的使用方式等,目前已废弃。

  • 有状态服务(StatefulSet):弹性云目前支持的主 workload,优化了控制器逻辑,实现了自定义部署顺序策略、无序删除策略、打散策略等等。

  • 静态容器(Pod):直接管理 pod,在现有的 Kubernetes 原生调度编排之上,提供和 VM 类似的资源交付手段,是为了兼容类似物理机使用方式的妥协,不  cloudnative,不建议新业务接入

  • Endponit:接流组件监听其变化,在pod漂移后自动接上dsi/lvs的流量

  • Deamonset:node 上 agent 的 workload

k8s 调度器的实现

kube-scheduler 的根本工作任务是根据各种调度算法将 Pod 绑定(bind)到最合适的工作节点,整个调度流程分为两个阶段:预选策略(Predicates)和优选策略(Priorities),这里不再赘述。

弹性云调度预选卡点

在 k8s 原生的预选卡点上我们做了很多增强:

e3923ca00ee9e3ca70b832f90583d337.png

3a312699f27c96333564bc077eda06a6.png

弹性云调度优选算分

重点介绍两个优选算法:  

dd4739953d4a9efbc00fc51794917fe6.png

301f4edcdfdb1d9f4e42c7243369b057.png

很长一段时间我们一直使用如下的优选打分权重,也就是 Balanced 和 Least 并重,但在资源紧张的情况下,重调度效果显示调度在即使有比较低利用率 cpu 的 node,也会选取另一个利用率较高但比较均衡的 node,而这个 node 更可能成为热点,这就是我们说的“调度bad case”。

9294b4d909d05c5d6d6215b30d52b36c.png

为此,当前在某些峰值利用率较高、热点较大的大机房,做了如下优选权重的调整,更加关注资源的使用率而不是平铺度。

92dd052d3d80c6cc51a2d64acfb6af66.png

调度器框架

在将 k8s 版本升级到 1.20 后,我们将上述弹性云的预选卡点和优选算法全部通过 SchedulerFramework 做了重新实现,主要拆解为 PreFilter、Filter 和 Score 三种扩展点。

abc3be297803f8973c10149599bf90b3.png

k8s 版本的升级

不久之前弹性云部分机房 k8s 版本还是 1.12,升级到 1.20 的难点如下:

  • 集群体量大,最大集群规模已经远远超出了社区推荐的5千个 node 上限,有问题的爆炸半径大;

  • 场景复杂多样,隔离集群、有状态服务容器、不可变更ip漂移容器、静态容器等;

  • 周边涉及范围广,kube-odin、各种 operator 和控制器等诸多上游组件。

替换升级方案介绍:

  • 两个 k8s 集群,1.12 和 1.20,直接搭建新的一套新的 1.20 master 和周边组件;

  • 1.20 集群中创建和 1.12 和等量的业务负载,也就是 sts 和 pod;

  •  通过上游的流量管控应用决定流量分布,一开始流量都在 1.12 的 sts 的 pod中,逐步切流到 1.20 的 sts 的 pod;

  • 有问题的时候可以快速回切流量。

原地升级方案介绍:

  • 只有一个 k8s 集群,将 master 和周边组件直接从 1.12 升级到 1.20;

  • 逐步将集群中的 node 也就是 kubelet 从 1.12 版本升级到 1.20;

  • 不做任何业务负载相关的操作,也就是 sts 和 pod 无需重建,其实的流量分布也不做操作,随着 node 升级流量天然就逐步从 1.12 切到 1.20 了;

  • 有问题的时候需要部分回滚 node 的 kubelet,当出现全局性风险的时候需要全量回滚 master 和周边组件。

两个方案对比如下:

058176c5c62a079940cd1d31ebe57daa.png

从方案可落地以及成本角度最终选取了原地升级

核心实现

  • 有状态服务,比如 redis 等需要 kubelet 升级容器不重启:修改原生的kubelet 实现,按hash值是否变化来决定是否重建容器的策略。

a01fa5d7313bc7171c2841c018172235.png

  • 升级中间态风险规避:master 1.20 +部分 Kubelet 1.12 的场景,梳理和关注高版本 apiserver 中资源或协议的变化,推动周边系统使用非 alpha 或 beta版本资源。

目前已无损升级滴滴所有核心机房万级别的 node 和十万级别 pod ,且升级过程中业务完全无感,未发生一次故障。

服务画像/真实使用率调度

从全局资源优化角度看,调度是动词,是策略的运用,关键是这个策略从何而来、怎么优化?我们知道 k8s 原生使用 request 做装箱,而一般为了成本考虑都会做 node 上的超卖,这在 node 上所有 pod 利用率都较高的情况下会产生热点和资源争抢。

服务画像的核心目标是探索不影响业务情况下的单机使用率上限,以及寻找真实资源的全局分布最优解。其核心能力包括:元信息完备的多维数据(map能力),灵活的聚合计算语言 promQL(reduce 能力),配置化的数据可视化大盘 (可观测性能力),以及灵活可配置的数据->策略通路(画像能力)。

数据分析 MapReduce

MapReduce 是一种数据处理思想,Map 代表数据预处理,包括归一化、格式化、补全数据元信息等,Reduce 代表数据聚合,可以进一步分为四种运算操作:过滤(filters)、聚合(aggregations)、集合操作(set operations)和联结(joins)。

举个例子,如何用MapReduce的思想分析数据:

北京机房下,X2234节点、wyc产品线的所有8核规格容器中,所有可漂移的容器过去七天消耗的最大CPU核数按宿主机维度求和。

表达式:

sum(max_over_time(ddcloud_pod_cpu_used{region="beijing", 
set="X2234", prod_line="wyc",cpu_limit="8", 
flexible="true"}[7d]))by(m_host)

结论:

依据该分析,可得出 wyc 产品线的容器在北京机房部分物理机上的分布情况,并据此人工或自动消除 wyc 产品线容器热点。

真实使用率调度

在过去一段时间,整个弹性云公共集群一直处于超卖较大的情况,而真实利用率的限制是真正保证高峰期宿主不会被打爆的主要策略。

如何算出真实使用率?算法是取当前宿主所有 pod,对其进行拟合取七天内最大的点作为调度参考值。当 pod 发生漂移时值也随之改变。zhivago 会将 pod 和 node 的7天最大值提前计算好保存到对应的配置中,此配置会被调度读取并作为调度决策的重要参考,每1分钟为更新周期。

为什么取七天最大值?因为从当前的数据的同比、环比可以看到,滴滴的业务特性7天为循环周期。取7天最大值可以在最坏的情况下尽量不产生热点。调度会保证宿主上所有 pod 7天真实使用率之和不超过真实资源的一定比例,包括cpu、内存、io 和磁盘等。

重调度

kubernetes 调度 pod 是一次性决策的,实时状态决策,但业务的压力是变化的,所以长期运行后 node 的状态不一定合理。我们的服务画像/真实使用率调度是一个偏“保守”的调度策略,如果业务流量保持和前7天完全一致,可以确保各个 node 在高峰期的 cpu 利用率都不会超过一定比例。但在很多场景下,业务流量会创新高,比如服务先扩容,后切流:

ad812eea28f6710449040ba5ceac8a99.png

还有,比如集群新增了亲和/互斥的策略,如何将策略作用于存量 pod ?集群修改超卖规则,超卖系数压缩怎么对存量 pod 生效?怎么处理不满足新调度规则的 pod?对这些场景,我们都希望用重调度来再做一次调度:

f016ac0b267d26a0e5c821459f2bde00.png

核心流程

  • 定时任务1:每10分钟做一次筛选,对不满足调度 Good Case 的 pod 入队列;

  • 定时任务2:每分钟做一次筛选,对满足漂移条件的 pod 做漂移;

  • 定时任务3:每分钟做一次漂移失败的 pod 的检查,重新入队列;

  • 定时任务4:每天捞一轮数据以生成重调度的成功率、失败数以及未恢复 pod 的日报。

紧急均衡

由于 CPU 属于抖动性最强的资源,在利用率较高的情况下一般业务都会受到影响,所以提供了紧急情况立即均衡的能力,不区分业务高峰期。紧急均衡触发条件为:物理机实际利用率高于一定的水位,可配置调整。

兜底策略

重调度是统一的再调度中心,具备自动化能力,但调度本身较重,需要规避不可控的爆炸半径。因此有如下重调度的限制:

f676e8564305d4efb511fc63ec6701e0.png

效果说明

在流量和核数相同的情况下,重处理前后的集群热点率对比:

1c1c741d238959030d6d0f01b84ed831.png

调度规则引擎

一直以来我们努力的方向是完善调度策略精确性或者说是完善基础能力,虽有一定的效果,但已经无法满足日益复杂的调度需求。为了让调度的管理能力可配置化,而不再依赖于代码的上线,需要一个单独的组件对涉及到的如下属性做修改和使用:

  • Annotations (各种开关、阈值、附加属性等)

  • Labels (阈值、标签)

  • Resource (pod所需资源、node总资源)

  • Taints/Tolerations (node's taint and pod's tolerations)

  • Affinity (node's and pod's soft and hard [anti]affnity)

修改的对象可以是 Pod、Node、Pod Controller(如Statefulset)等。这就是 Galahad,它是核心调度组件,负责集群资源调度与管控,寻找集群调度过程中的圣杯。

Galahad 全景图如下图所示:

fda8602930a036362923703d71203e35.png

核心实现

通过 Galahad 可以提供对 k8s 各个资源的自定义配置,如容器维度的调度打散,亲和性、物理机维度的资源超卖,资源限制、业务集群维度的物理机亲和性等等。具体是和 webhook 配合使用,基于 k8s 的 mutatingwebhook 实现对新建 pod 或者修改 node 的资源注入。   

421dacdf7a435a891a69f2b27e5cf0cb.png

效果说明

支持以下场景:

  • 为了满足混合调度的需求,尽量减少调度器的修改,通过 Galahad 区分 pod 在不同集群的调度策略;

  • 在隔离集群等需要特殊打散配置的场景下,直接通过 Galahad 注入 pod 打散策略;

  • 在 map 等公共集群重数据服务上云的场景下,通过 Galahad 注入 pod 的跨 sts 平铺。

调度稳定性

稳定性体系

1、调度可观测:

  • 调度链路的可观测:apiserver->hook->etcd 的 trace 串联 

19ae966858ee526ecadc14a4accaa9c1.png

  • 调度现场的可观测:调度失败详情、优选打分日志、调度现场的pod和node快照

2b0ed698b01e7de342672126d5b59467.png

  • 集群状态的可观测,包括集群 node 和 pod 详情、剩余套餐数、热点和可解释大盘等

2、核心指标保障:周调度成功率、堆积和延迟,重调度成功率和延迟,各组件指标比如apiserver qps等,通过核心指标大盘体现。

3、功能点自动化回归验证:自动化巡检能力。

4、放火能力失败验证:故障注入和系统自我止损能力。

组件稳定性

1、apiserver 稳定性

  • 请求均衡:基于 go away 的长连接请求打平

  • 限流保护:原生的 apf 限流,对内部组件请求豁免的优化

  • 来源感知:复杂请求链路梳理、推动调用方增加 client 信息

  • 应急预案:master 备机和快速扩容 sop

2、调度器性能优化

  • 在离线 pod 调度优先级差异化处理和退避策略,保障在线调度性能

  • percentageOfNodesToScore 等调度器参数优化

3、控制器性能优化

  • endponit 控制器同步缓存数据优化,时间复杂度从n*n->1,发布封线时间缩短4/5

  • 1.12版本 taintController 直接从 etcd list pod 请求的优化

4、galahad+webhook 稳定性

  • 1.12 默认的 apiserver 对 webhook 长连接优化为短连接

  • webhook 部署优化,容器和物理机冷备

  • galahad 操作工单化,防止误操作

  • 强弱依赖不可用演练

5、etcd 稳定性

  • apiserver 对 etcd 的前置限流保护

  • event 和主 etcd 的拆分

  • 穿透到 etcd 的 list 请求治理

  • 客户端定时压缩优化为服务端自己主动压缩

  • 高峰期前的 deflag 磁盘碎片整理

故障治理能力

1、事前

  • 监控和告警补全

  • 周边依赖梳理,强依赖稳定性保障

  • 压测环境单集群容量上限摸底

2、事中

  • 护堤手册和大盘

  • 通用问题排查手册

  • 故障场景止损 SOP

3、事后

  • 复盘和改进落地流程

总结

滴滴弹性云基于 k8s 实现了容器调度,支持多云调度、在线隔离、在离混部的多种复杂业务场景,目前在线公共集群的平均利用率已经接近50%,未出现明显异常。

在这个过程中,基于对 k8s 的理解完善了画像、重调度、规则引擎能力,提升了调度效果,并通过稳定性治理保证了系统99.99%的可用。后续会进一步在业务精细化调度、隔离能力完善、多调度器支持以及可观测提升等方面做深耕。  



云原生夜话

聊聊看,您对k8s的使用落地有什么心得,怎么解决集群资源分配的问题呢?如需与我们进一步交流探讨,也可直接私信后台。

作者将选取1则最有意义的留言,送出滴滴200元打车券。10月24日晚9点开奖。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/110531.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

服务器数据恢复-RAID信息破坏导致服务器操作系统无法启动的数据恢复案例

服务器数据恢复环境: 一台服务器,8块硬盘组建了一组raid5磁盘阵列,服务器安装的是windows server操作系统,上层部署ORACLE数据库。 服务器故障: 在服务器运行过程中,2块硬盘报警,服务器操作系统…

【75. 颜色分类】

目录 一、题目描述二、算法思想三、代码实现 一、题目描述 二、算法思想 三、代码实现 class Solution { public:void sortColors(vector<int>& nums) {int nnums.size();for(int left-1,rightn,i0;i<right;){if(nums[i]0)swap(nums[i],nums[left]);else if(nums…

Android SurfaceControlViewHost介绍及使用

概要介绍 SurfaceControlViewHost是一个工具类&#xff0c; 用于帮助在其他进程中显示本进程的view。 SurfaceControlViewHost 为绘制进程持有&#xff0c;其中的SurfacePackage 交给另外的显示进程&#xff0c;在显示进程中的SurfaceView中通过SurfaceView.setChildSurface…

华测监测预警系统 2.2---任意文件读取漏洞

目录 1. 资产搜集 2. 漏洞复现 3. 实战总结 1. 资产搜集 直接上fofa 和 hunter 个人推荐hunter可以看到icp备案公司直接提交盒子就行了 FOFA语法 app”华测监测预警系统2.2” Hunter语法 web.body”华测监测预警系统2.2” 2. 漏洞复现 这里手动复现的&#xff0c;目录是/…

Godot2D角色导航-自动寻路教程(Godot获取导航路径)

文章目录 开始准备获取路径全局点坐标 开始准备 首先创建一个导航场景&#xff0c;具体内容参考下列文章&#xff1a; Godot实现角色随鼠标移动 然后我们需要设置它的导航目标位置&#xff0c;具体关于位置的讲解在下面这个文章&#xff1a; Godot设置导航代理的目标位置 获取…

【自动化测试】基于Selenium + Python的web自动化框架

一、什么是Selenium&#xff1f; Selenium是一个基于浏览器的自动化工具&#xff0c;她提供了一种跨平台、跨浏览器的端到端的web自动化解决方案。Selenium主要包括三部分&#xff1a;Selenium IDE、Selenium WebDriver 和Selenium Grid&#xff1a;  1、Selenium IDE&…

吐血整理,服务端性能测试中间件-项目集成redis实战,一篇打通...

目录&#xff1a;导读 前言一、Python编程入门到精通二、接口自动化项目实战三、Web自动化项目实战四、App自动化项目实战五、一线大厂简历六、测试开发DevOps体系七、常用自动化测试工具八、JMeter性能测试九、总结&#xff08;尾部小惊喜&#xff09; 前言 Linux下Redis安装…

Jmeter性能测试:高并发分布式性能测试

一、为什么要进行分布式性能测试 当进行高并发性能测试的时候&#xff0c;受限于Jmeter工具本身和电脑硬件的原因&#xff0c;无法满足我们对大并发性能测试的要求。 基于这种场景下&#xff0c;我们就需要采用分布式的方式来实现我们高并发的性能测试要求。 二、分布式性能…

深入探求:中国精益生产与管理实践的崭新视角

经过多方位的了解&#xff0c;比之制造行业上的精益管理上的表现情况&#xff0c;认为目前国内的精益生产精益管理实践仍处于自我认知的水平。目前很多的企业前进的步伐还是主要依据市场经济发展所衍生出来的较为先进的工具运用&#xff0c;其战略性的管理处于局部优化再而达到…

线上软件的故障排查方法

线上软件的故障排查是确保软件系统正常运行和快速解决问题的重要任务。以下是一些通用的线上软件故障排查方法&#xff0c;希望对大家有所帮助。北京木奇移动技术有限公司&#xff0c;专业的软件外包开发公司&#xff0c;欢迎交流合作。 监控系统&#xff1a; 使用监控工具来追…

Chrome 浏览器关闭后再打开,需要重新登录账号,解决办法

最近&#xff08;2023-10-15&#xff09;每次打开 Chrome 浏览器&#xff0c;Chrome 自身账号以及各个网站账号都需要重新登录&#xff0c;电脑本身为家用&#xff0c;使用时间不多的情况下&#xff0c;频繁登录账号很痛苦&#xff0c;也很迷惑。现找到解决办法&#xff0c;记录…

《动手学深度学习 Pytorch版》 9.2 长短期记忆网络(LSTM)

解决隐变量模型长期信息保存和短期输入缺失问题的最早方法之一是长短期存储器&#xff08;long short-term memory&#xff0c;LSTM&#xff09;。它与门控循环单元有许多一样的属性。长短期记忆网络的设计比门控循环单元稍微复杂一些&#xff0c;却比门控循环单元早诞生了近 2…

【算法|前缀和系列No.5】leetcode1314. 矩阵区域和

个人主页&#xff1a;兜里有颗棉花糖 欢迎 点赞&#x1f44d; 收藏✨ 留言✉ 加关注&#x1f493;本文由 兜里有颗棉花糖 原创 收录于专栏【手撕算法系列专栏】【Leetcode】 &#x1f354;本专栏旨在提高自己算法能力的同时&#xff0c;记录一下自己的学习过程&#xff0c;希望…

ifndef是什么,如何使用?

引言 使用HbuilderX uni-ui模板创建的uni-app项目&#xff0c;main.js文件中看到有如下的注释&#xff1a; // #ifndef VUE3 ...... // #endif // #ifdef VUE3 ...... // #endif 相信很多没有uini-app项目开发经验的朋友&#xff0c;初次接触uni-app项目&#xff0c;可…

小白学习c++的的一节课

初识c 目录&#xff1a;一、c关键字(c98)二、命名空间2.1 命名空间的定义2.2 命名空间的使用 三、c输入与输出四、缺省参数五、函数重载六、引用6.1引用特性6.2常引用6.3使用场景6.4传值和传引用效率比较6.5引用和指针的区别 七、内联函数7.1 概念7.2特性 八、auto关键字&…

Linux高性能服务器编程——ch4笔记

第4章 TCP/IP 通信案例&#xff1a;访问 Internet 上的Web 服务器 4.1 实例总图 4.2 部署代理服务器 客户端和目标服务器之间可能存在多个代理服务器。 正向代理&#xff1a;要求客户端自己设置代理服务器的地址。 反向代理&#xff1a;设置在服务器端。 透明代理&#xff1…

智慧公厕改变城市生活,厕所革命标杆应用解决方案

随着城市化进程的加快&#xff0c;公厕作为城市基础设施的重要组成部分&#xff0c;扮演着不可忽视的角色。然而&#xff0c;传统的公厕粗放型管理模式&#xff0c;已经无法满足市民日益增长的需求。为了提升公厕的管理和服务水平&#xff0c;智慧公厕应运而生。 什么是智慧公…

多模态大模型NextGPT整体结构图、模型示意图和使用模型时示意图

NextGPT模型整体结构 项目地址 论文地址 模型示意图 使用模型时示意图

PlatformIO在clion和vscode上的开发和使用,机器人开发嵌入式代码

vscode PlatformIO:2020年你还在用Arduino&#xff1f;&#xff1f;快开始用PlatformIO开发Esp8266/32、Arduino、STM32&#xff0c;十分钟亲测ESP8266 clion PlatformIO: clion platformio搭建 其他说明&#xff1a; 在vscode里使用platformio&#xff0c;可以选择开发的平台…

【Axure高保真原型】3D柱状图_中继器版

今天和大家分享3D柱状图_中继器版的原型模板&#xff0c;图表在中继器表格里填写具体的数据&#xff0c;调整坐标系后&#xff0c;就可以根据表格数据自动生成对应高度的柱状图&#xff0c;鼠标移入时&#xff0c;可以查看对应圆柱体的数据……具体效果可以打开下方原型地址体验…