`
大涛学长
  • 浏览: 110953 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

K8s 集群节点在线率达到 99.9% 以上,扩容效率提升 50%,我们做了这 3 个深度改造

阅读更多
作者 | 张振(守辰)阿里云云原生应用平台高级技术专家

> **导读**:2019 年阿里巴巴核心系统 100% 以云原生方式上云,完美地支撑了 双11 大促。这次上云的姿势很不一般,不仅是拥抱了 Kubernetes,而且还以拥抱 Kubernetes 为契机进行了一系列对运维体系的深度改造。

Kubernetes 作为云原生的最佳实践,已经成为了事实上的容器编排引擎标准,Kubernetes 在阿里巴巴集团落地主要经历了四个阶段:

*   研发和探索:2017 年下半年阿里巴巴集团开始尝试使用 Kubernetes api 来改造内部自研平台,并开始了对应用交付链路的改造,以适配 Kubernetes;
*   初步灰度:  2018 年下半年阿里巴巴集团和蚂蚁金服共同投入 Kubernetes 技术生态的研发,力求通过 Kubernetes 替换内部自研平台,实现了小规模的验证,支撑了当年部分 双11 的流量;
*   云化灰度:  2019 年初阿里巴巴经济体开始进行全面上云改造,阿里巴巴集团通过重新设计 Kubernetes 落地方案,适配云化环境,改造落后运维习惯,在 618 前完成了云化机房的小规模验证;
*   规模化落地:2019 年 618 之后,阿里巴巴集团内部开始全面推动 Kubernetes 落地,在大促之前完成了全部核心应用运行在 Kubernetes 的目标,并完美支撑了 双11 大考。

在这几年的实践中,一个问题始终萦绕在各个架构师的头脑中: 在阿里巴巴这么大体量、这么复杂的业务下, 遗留了大量传统的运维习惯以及支撑这些习惯的运维体系,落地 Kubernetes 到底要坚持什么?要妥协什么?要改变什么?

本文将分享阿里巴巴这几年对于这些问题的思考。答案很明显:拥抱 Kubernetes 本身并不是目的,而是通过拥抱 Kubernetes 撬动业务的云原生改造,通过 Kubernetes 的能力,治理传统运维体系下的沉疴顽疾,释放云弹性的能力,为业务的应用交付解绑提速。

在阿里巴巴的 Kubernetes 落地实践中,关注了下面几个关键的云原生改造:

面向终态改造
------

在阿里巴巴传统的运维体系下,应用的变更都是 PaaS 通过创建操作工单,发起工作流,继而对容器平台发起一个个的变更来完成的。

当应用发布时, PaaS 会从数据库中查到应用所有相关的容器,并针对每个容器,向容器平台发起修改容器镜像的变更。每一个变更实际上也是一个工作流,涉及到镜像的拉取、旧容器的停止和新容器的创建。工作流中一旦发生错误或者超时,都需要 PaaS 进行重试。一般而言,为了保证工单及时的完成,重试仅会执行几次,几次重试失败后,只能依靠人工处理。

当应用缩容时,PaaS 会根据运维人员的输入,指定容器列表进行删除,一旦其中有容器因为宿主机异常的情况下删除失败或者超时,PaaS 只能反复重试,为了保证工单的结束,在重试一定次数后只能认为容器删除成功。如果宿主机后续恢复正常,被“删除”的容器很有可能依然运行着。

传统的面向过程的容器变更一直存在如下问题无法解决:

*   单个变更失败无法保证最终成功

例如,一旦容器镜像变更失败,PaaS 无法保证容器镜像的最终一致;一旦删除容器失败, 
也无法保证容器最后真的被删除干净。两个例子都需要通过巡检来处理不一致的容器。而巡检任务因为执行较少,其正确性和及时性都很难保证;

*   多个变更会发生冲突

例如应用的发布和应用的扩容过程需要加锁,否则会出现新扩的容器镜像未更新的情况。而一旦对变更进行加锁,变更的效率又会大幅下降。

Kubernetes 的能力提供了解决这个问题的机会。Kubernetes 的 workload 提供了声明式的 API 来修改应用的实例数和版本,workload 的控制器可以监听 pod 的实际情况,保证应用 pod 的实例数量和版本符合终态,避免了并发扩容和发布的冲突问题。Kubernetes 的 kubelet 会依据 pod 的 spec,反复尝试启动 pod,直到 pod 符合 spec 描述的终态。重试由容器平台内部实现,不再和应用的工单状态绑定。

自愈能力改造
------

在阿里巴巴传统的运维体系下,容器平台仅生产资源,应用的启动以及服务发现是在容器启动后由 PaaS 系统来执行的,这种分层的方法给了 PaaS 系统最大的自由,也在容器化后促进了阿里巴巴第一波容器生态的繁荣。但是这种方式有一个严重的问题,即: 
容器平台无法独立地去触发容器的扩缩容,需要和一个个 PaaS 来做复杂的联动,上层 PaaS 也需要做很多重复的工作。这妨碍了容器平台在宿主机发生故障、重启、容器中进程发生异常、卡住时的高效自愈修复,也让弹性扩缩容变得非常复杂。

在 Kubernetes 中通过容器的命令以及生命周期钩子,可以将 PaaS 启动应用以及检查应用启动状态的流程内置在了 pod 中;另外,通过创建 service 对象,可以将容器和对应的服务发现机制关联起来,从而实现容器、应用、服务生命周期的统一。容器平台不再仅仅生产资源,而是交付可以直接为业务使用的服务。这极大地简化了上云之后故障自愈以及自动弹性扩缩容能力的建设, 
真正地发挥了云的弹性能力。

另外,在宿主机发生故障的情况下,PaaS 传统上需要先对应用进行扩容,然后才删除宿主机上的容器。然而在大规模的集群下,我们发现往往会卡在应用扩容这步。应用资源额度可能不够,集群内满足应用调度限制的空闲资源也可能不够,无法扩容就无法对宿主机上的容器进行驱逐,进而也无法对异常的宿主机进行送修,久而久之,整个集群很容易就陷入故障机器一大堆,想修修不了、想腾腾不动的困境之中。

在 Kubernetes 中对于故障机的处理要“简单和粗暴”得多,不再要求对应用先扩容,而是直接把故障机上的容器进行删除,删除后才由负载控制器进行扩容。这种方案乍一听简直胆大妄为,落地 Kubernetes 的时候很多 PaaS 的同学都非常排斥这种方法,认为这会严重影响业务的稳定性。事实上,绝大多数核心的业务应用都维护着一定的冗余容量,以便全局的流量切换或者应对突发的业务流量,临时删除一定量的容器根本不会造成业务的容量不足。

我们所面临的关键问题是如何确定业务的可用容量,当然这是个更难的问题,但对于自愈的场景完全不需要准确的容量评估,只需要一个可以推动自愈运转的悲观估计就可以。在 Kubernetes 中可以通过 PodDisruptionBudget 来定量地描述对应用的可迁移量,例如可以设置对应用进行驱逐的并发数量或者比例。这个值可以参考发布时的每批数量占比来设置。假如应用发布一般分 10 批,那么可以设置 PodDisruptionBudget 中的 maxUnavailable 为 10%(对于比例,如果应用只有 10 个以内的实例,Kubernetes 还是认为可以驱逐 1 个实例)。万一应用真的一个实例都不允许驱逐呢?那么对不起,这样的应用是需要改造之后才能享受上云的收益的。一般应用可以通过改造自身架构,或者通过 operator 来自动化应用的运维操作,从而允许实例的迁移。<

不可变基础设施改造
---------

Docker 的出现提供了一种统一的应用交付形式,通过把应用的二进制、配置、依赖统一在构建过程中打到了镜像中, 
通过使用新的镜像创建容器,并删除掉旧容器就完成了应用的变更。Docker 在交付应用时和传统基于软件包或者脚本的交付方式有一个重大区别,就是强制了容器的不可变,想要变更容器只能通过新创建容器来完成,而每个新容器都是从应用同一个镜像创建而来,确保了一致性,从而避免了配置漂移,或者雪花服务器的问题。

Kubernetes 进一步强化了不可变基础设施的理念,在默认的滚动升级过程中不但不会变更容器,而且还不会变更pod。每次发布,都是通过创建新的 pod,并删除旧的 pod 来完成,这不仅保证了应用的镜像统一,还保证了数据卷、资源规格以及系统参数配置都是和应用模板的 spec 保持一致。

另外,不少应用都有比较复杂的结构,一个应用实例可能同时包含多个团队独立开发的组件。 比如一个应用可能包括了业务相关的应用程序服务器,也包括了基础设施团队开发的日志采集进程,甚至还包括了第三方的中间件组件。这些进程、组件如果想要独立发布就不能放在一个应用镜像中,为此 Kubernetes 提供了多容器 pod 的能力,可以在一个 pod 中编排多个容器,想要发布单个组件,只需要修改对应容器的镜像即可。

不过,阿里巴巴传统的容器形态是富容器,即应用程序服务器,以及日志采集进程等相关的组件都部署在一个大的系统容器中,这造成了日志采集等组件的资源消耗无法单独限制,也无法方便地进行独立升级。因此,在阿里巴巴这次上云中,开始把系统容器中除业务应用外的其他组件都拆分到独立的 sidecar 容器,我们称之为轻量化容器改造。改造后,一个 pod 内会包括一个运行业务的主容器、一个运行着各种基础设施 agent 的运维容器,以及服务网格等的sidecar容器。轻量化容器之后, 业务的主容器就能以比较低的开销运行业务服务,从而更方便进行 serverless 的相关改造。

不过,Kubernetes 默认的滚动升级过程过于僵硬地执行了不可变基础设施的理念,导致对多容器 pod 的能力支持有严重的缺失。虽然可以在一个 pod 中编排多个容器,但如果要发布 pod 中的一个容器,在实际执行发布时,不仅会重建待发布的容器,还会把整个 pod 都删除,而后重调度、再重建。这意味着假如要升级基础设施的日志采集组件,会导致其他组件,特别是业务的应用服务器被一起删除重启,从而干扰到正常的业务运行。因此,多个组件的变更依然没有解耦。

对业务而言,假如 pod 中有本地缓存的组件,而每次业务的发布都会重启缓存进程,这会导致业务发布期间缓存的命中率大幅下降,影响性能甚至用户的体验;另外,如果基础设施、中间件等团队的组件升级都和业务的组件升级绑定在一起,这会给技术的迭代更新带来巨大的阻碍。假设负责中间件的团队推出了新的 service mesh 版本, 而为了升级 mesh 还需要央求一个个业务发布才能更新 mesh 组件,那么中间件的技术升级就会大大减速。

因此,相比 pod 层次的不可变,我们认为坚持容器级别的不可变原则,更能发挥 Kubernetes 多容器 pod 的技术优势。为此,我们建设了支持应用发布时只原地修改 pod 中部分容器的能力,特别地建设了支持容器原地升级的工作负载控制器,并替换 Kubernetes 默认的 deployment 和 statefulset 控制器作为内部的主要工作负载。

另外,还建设了支持跨应用进行 sidecar 容器升级的 sidecarset, 方便进行基础设施以及中间件组件的升级。此外,通过支持原地升级还带来了集群分布确定性、加速镜像下载等的额外优势。这部分能力,我们已经通过[ OpenKruise](https://yq.aliyun.com/go/articleRenderRedirect?url=https%3A%2F%2Fgithub.com%2Fopenkruise%2Fkruise) 项目开源出来。OpenKruise 中的 Kruise 是 cruise的谐音,'K' for Kubernetes, 寓意 Kubernetes 上应用的自动巡航,满载着阿里巴巴多年应用部署管理经验和阿里巴巴经济体云原生化历程的最佳实践。目前,OpenKruise 正在计划发布更多的 Controller 来覆盖更多的场景和功能,比如丰富的发布策略、金丝雀发布、蓝绿发布、分批发布等等。

总结
--

今年我们实现了 Kubernetes 的规模化落地,经受了 双11 大促真实场景的考验。像阿里巴巴这样有着大量存量应用的场景,落地 K8s 并没有捷径,我们经受住了快速规模化落地的诱惑,没有选择兼容和妥协落后的运维习惯,而是选择深蹲打好基础、选择深挖云原生价值。接下来,我们将继续推动更多应用的云原生改造,特别是有状态应用的改造,让有状态应用的部署和运维更加高效;另外,还将推动整个应用交付链路的云原生改造,让应用交付更加高效和标准化。

 

 

[原文链接](https://yq.aliyun.com/articles/731867?utm_content=g_1000090539)

本文为云栖社区原创内容,未经允许不得转载。
分享到:
评论

相关推荐

    promethues(普罗米修斯)监控k8s集群-详细文档

    通过这个详尽的步骤,你将能够构建一个完整的 k8s 集群监控系统,不仅能够实时查看集群状态,还能在出现异常时及时收到通知,从而提升系统的可维护性和稳定性。记得定期审查和更新监控策略,以适应 k8s 集群的变化和...

    离线部署k8s_1.18.3集群(二进制方式).zip

    以上步骤涵盖了离线部署k8s 1.18.3集群的基本流程,每个环节都需要细心配置和调试。在实际操作过程中,可能还需要根据具体的网络环境和安全策略进行调整。参考提供的`参考《二进制方式搭建一个完整K8s集群》1.18新版...

    k8s集群搭建redis集群

    k8s集群搭建redis集群 k8s集群搭建redis集群 k8s集群搭建redis集群 k8s集群搭建redis集群 k8s集群搭建redis集群

    二进制部署k8s高可用集群(二进制-V1.20).docx

    二进制部署k8s高可用集群(二进制-V1.20) 基于提供的文件信息,本文将对二进制部署k8s高可用集群进行详细的知识点总结。 1. 生产环境部署 K8s 集群的两种方式 在生产环境中,部署 K8s 集群有两种方式:一种是...

    k8s主节点环境巡检脚本

    针对于k8s的主节点!巡检!各个服务状态等等!还有系统版本,是不是与外网进行互通,非常实用!喜欢的可以试试 !

    搭建K8S集群.docx

    搭建Kubernetes(K8S)集群是现代云原生应用部署的关键步骤,它涉及多个组件的配置和管理。以下是对K8S集群搭建过程的详细解释: 首先,我们需要准备虚拟机环境来模拟实际的K8S集群。在这个例子中,我们使用Windows...

    二进制高可用k8s集群一键部署脚本

    "二进制高可用k8s集群一键部署脚本"是为简化k8s集群搭建过程而设计的工具,它基于阿良的二进制部署文档,旨在帮助开发者和学习者快速创建一个稳定的高可用k8s集群。 首先,了解二进制部署意味着不依赖于预打包的...

    K8S部署+实战+集群架构图.zip

    本资源"K8S部署+实战+集群架构图.zip"提供了关于Kubernetes部署、实战应用以及集群架构的深入理解,包括3个架构图、1个部署文档和1个实战文档。以下将详细阐述这些关键知识点。 1. **Kubernetes(K8s)基础知识**:...

    基于Shell/Python的k8s集群节点批量管理与操作k8stool设计源码

    该项目为基于Shell和Python编写的k8stool,旨在简化k8s集群节点的批量管理与操作。源码包含41个文件,其中Shell脚本29个、YAML配置8个、Python脚本3个以及LICENSE文件1个。相比Ansible、SaltAc等运维工具,k8stool...

    k8s搭建Nacos集群

    k8s搭建Nacos集群,制作Java运行容器镜像,再制作Nacos镜像 Nacos版本是:2.1.0 说明: 如果想搭建:2.2.0也根据文档步骤操作即可

    内网服务器加入k8s集群部署文件

    内网服务器加入Kubernetes(k8s)集群的部署是一个涉及多步骤的过程,涉及到网络配置、身份验证、证书管理等多个关键技术点。以下是对这个过程的详细解析: 首先,理解Kubernetes(简称k8s)是Google开源的一个容器...

    kubeadm初始化高可用k8s1.20.4集群-etcd集群独立在k8s集群外详细笔记资料包

    Kubernetes,简称K8s,是目前最流行的容器编排系统,用于自动化容器化的应用程序部署、扩展和管理。kubeadm是Kubernetes提供的一种轻量级工具,用于简化集群的初始化和升级过程。本资料包重点讲解如何使用kubeadm来...

    centos7与ubuntu搭建k8s集群方案

    centos7与ubuntu搭建k8s集群方案,包含了在k8s中搭建的各种常用微服务与存储。

    k8s安装Nacos集群

    k8s搭建Nacos集群,制作Nacos镜像 Nacos版本是:2.0.2

    k8s node节点监控

    k8s node节点监控,可以显示node节点信息,监控node集群节点的状态

    Lens -K8S集群管理工具

    安装windows系统,可视化界面,方便K8S集群管理

    k8s初探-本地简单搭建k8s集群

    在本地搭建K8S集群,通常会使用`minikube`,它是一个轻量级的Kubernetes环境,适合在个人电脑上快速启动一个单节点集群。以下是一些基本步骤: 1. **安装kubectl**:`kubectl`是与Kubernetes集群通信的客户端工具,...

    K8S监控模板,用于k8S集群Pod监控

    下面我们将详细探讨K8S监控的关键知识点,以及提供的三个文件可能包含的内容。 1. K8S监控的重要性: - 性能分析:监控可以帮助识别资源瓶颈,如CPU、内存使用率过高,从而进行优化。 - 故障排查:当Pods出现异常...

    k8s单节点(软件及脚本).rar

    k8s单节点配置适用于学习、实验或小型环境,它将所有k8s组件安装在一个物理或虚拟机上,简化了部署过程。下面我们将详细探讨k8s单节点的组成、安装步骤以及相关脚本的使用。 一、k8s组件介绍 在k8s集群中,主要有...

    使用kubeadm搭建高可用的K8s集群_用来搭建k8s高可用集群_多master节点的具体过程.md

    用来搭建k8s高可用集群,haproxy,keepalived,k8s高可用集群搭建过程

Global site tag (gtag.js) - Google Analytics