PetSet首次在K8S1.4版本中,在1.5更名为StatefulSet。除了改了名字之外,这一API对象并没有太大变化。
注意:以下内容的验证环境为CentOS7、K8S版本1.5.2,并部署SkyDNS。
http://blog.csdn.net/liyingke112/article/details/76685794
概念
在云原生应用的体系里,有下面两组近义词;第一组是无状态(stateless)、牲畜(cattle)、无名(nameless)、可丢弃(disposable);第二组是有状态(stateful)、宠物(pet)、有名(having name)、不可丢弃(non-disposable)。
RC和RS主要是控制无状态服务,Pod的名字是随机设置的,重建后新的Pod名字变了,名字和部署在哪儿都不重要,重要的只是Pod总数。
PetSet/StatefulSet是用来部署和管理有状态服务。PetSet/StatefulSet中的每个Pod的名字都是事先确定的,不能更改,能提供固定的DNS名称、pod级别的持久化存储和有序pod,Pod名字是用来关联与该Pod对应的状态。
应用场景
有状态服务:数据库服务MySQL和PostgreSQL
集群化管理服务Zookeeper、etcd等有状态服务。
作为一种比普通容器更稳定可靠的模拟虚拟机的机制。传统的虚拟机正是一种有状态的宠物,运维人员需要不断地维护它,容器刚开始流行时,用容器来模拟虚拟机使用,所有状态都保存在容器里,而这已被证明是非常不安全、不可靠的。使用PetSet/StatefulSet,Pod仍然可以通过漂移到不同节点提供高可用,而存储也可以通过外挂的存储来提供高可靠性,PetSet/StatefulSet做的只是将确定的Pod与确定的存储关联起来保证状态的连续性。
特性
pod稳定的唯一网络标识
拥有固定的:pod名称、主机名、DNS域名等。注意pod的IP地址会变化的。
如果PetSet/StatefulSet名是web,replicas为2,则pod命名:web-0,web-1。并拥有固定的主机名和域名,完整域名格式为pod名.service名.namespace名.svc.域名。
当pod被迁移重新启动后,将保持原有的pod名称重新启动。例如web-0的Pod失败后,K8s将在集群中重启一个同名为web-0的pod。
该域名在集群内可用。这与k8s service的域名有所区别,带主机名的域名能定位到某一个pod主机,而service级别的域名只能定位到某一个服务。
通过一种叫HeadlessService的特殊Service来实现的。和普通Service相比,Headless Service没有Cluster IP,用于为一个集群内部的每个成员提供一个唯一的DNS名字,用于集群内部成员之间通信。
不部署HeadlessService的话,不是使用访问,但可以使用IP地址访问。
pod拥有稳定的持久存储
PetSet/StatefulSet内每一个pod都拥有各自的pvc持久化存储。
该特性能更好的支持分布式集群应用的数据同步,如类似etcd集群这样的有状态应用,节点间是需要进行数据同步的,当etcd集群的某个pod节点重启后,依然能够重新挂载原有的节点数据,重新保持数据复制、同步。
有序启动pod
PetSet/StatefulSet启动pod时,按固定的顺序去启动的,其总是优先启动数字编号更小的Pod。例如:web-0优先于web-1启动,web-1优先于web-2启动。
对于启动顺序有要求的有状态服务来说,该特性是非常重要的。
使用限制
必须部署PV和PVC
为了让pod拥有稳定的持久存储,必须使用持久化存储PV和PVC,增加了复杂性。
若PV使用nfs等无法通过调用API来创建存储的网络存储,PVC要在创建PetSet/StatefulSet1前静态创建,如果先创建PetSet/StatefulSet1,而没有创建PVC的话,将会自动创建PVC,但相关参数无法修改;
若为aws-ebs、vSphere、openstack Cinder等可以通过API调用来动态创建存储的虚拟存储,PVC除了可以通过静态的方式创建外,还可以通过StorageClass进行动态创建。
需要注意的是,动态创建出来的PV,默认的回收策略是delete,及在删除数据的同时,还会把虚拟存储卷删除。
删除或缩容PetSet/StatefulSet不会删除对应的存储卷容量。这是为了保证数据的安全,因为对待PetSet/StatefulSet的数据普通的做法比自动回收资源更实用。
必须部署Headless Service
和普通Service相比,Headless Service没有Cluster IP,在PetSet/StatefulSet中起到pod域名解析功能。
如果没有部署HeadlessService的话,PetSet/StatefulSet下的pod,无法通过域名进行访问。
必须手动更新pod
只能通过手动的方式升级PetSet/StatefulSet。
无法使用kubectl edit方式、类似与deployment(kubectl set image)和RC方式升级。能正常使用kubectledit编辑在线yaml文件,即使重启pod所在的node节点,也无法生效。
创建时命名规则有要求
如下面的例子:
StatefulSet:StatefulSet名称为lykops-sfs,卷名为pvc
PV:pv-lykops-sfs-{0,1}
PVC:pvc-lykops-sfs-{0,1}
规则如下:
PVC和PV的命名规则为:资源类型-StatefulSet名称-副本数序号(从0开始)
创建时PV和PVC的yaml规则有要求
除了命名规则外,还需要保证访问accessModes、resources这两个一样
按照以上规则创建后,可以看到PV和PVC能关联起来
扩容难
在扩容前,需要先部署好对应的PV和PVC
节点宕机,pod无法切换
当pod所在节点出现宕机,无法切换到其他node上运行。解决办法是恢复该节点工作。
创建范例
PV
cat << EOF > pv-lykops-sfs-0.yaml
apiVersion: v1
kind: PersistentVolume
metadata:
name: pv-lykops-sfs-0
labels:
type: nfs
app: pv
version: v1
spec:
capacity:
storage: 1Gi
accessModes:
-ReadWriteMany
persistentVolumeReclaimPolicy: Recycle
nfs:
path: /data
server: 192.168.20.128
readOnly: false
EOF
kubectl create -f pv-lykops-sfs-0.yaml
PVC
cat << EOF > pvc-lykops-sfs-0.yaml
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: pvc-lykops-sfs-0
labels:
type: nfs
app: pvc
version: v1
spec:
accessModes:
-ReadWriteMany
resources:
requests:
storage: 1Gi
EOF
kubectl create -f pvc-lykops-sfs-0.yaml
Headless Service
cat << EOF >lykops-sfs-headlessservice.yaml
apiVersion: v1
kind: Service
metadata:
name: lykops-sfs
labels:
software: apache
project: lykops
app: lykops-sfs
version: v1
spec:
ports:
-port: 80
name: apache
clusterIP: None
selector:
software: apache
project: lykops
app: lykops-sfs
version: v1
EOF
kubectl create -f lykops-sfs-headlessservice.yaml
StatefulSet
cat << EOF > lykops-sfs.yaml
apiVersion: apps/v1beta1
kind: StatefulSet
metadata:
name: lykops-sfs
labels:
software: apache
project: lykops
app: lykops-sfs
version: v1
spec:
serviceName: lykops-sfs
template:
metadata:
labels:
software: apache
project: lykops
app: lykops-sfs
version: v1
name: lykops-sfs
spec:
containers:
- name: lykops-sfs
image: web:apache
ports:
- containerPort: 80
name: apache
volumeMounts:
- name: pvc
mountPath: /data/
volumeClaimTemplates:
-metadata:
name: pvc
spec:
accessModes:
- ReadWriteMany
resources:
requests:
storage: 1Gi
EOF
kubectl create -f lykops-sfs.yaml
分享到:
相关推荐
kubernetes的quay.io/kubernetes-ingress-controller/nginx-ingress-controller:0.20.0镜像包,版本为v0.20.0。文件先解压,之后得到nginx-ingress-controller.0.20.0.tar
本文将深入探讨如何在Linux(AMD64架构)环境中安装和配置Kubernetes节点,以"**kubernetes-node-linux-amd64.tar.gz**"为例,我们将基于CentOS操作系统进行详细讲解。 一、Kubernetes简介 Kubernetes是由Google...
安装通过npm安装: npm i kubernetes-client --save初始化中kubernetes-client根据Swagger / OpenAPI规范在运行时生成Kubernetes API客户端。 您可以使用集群的kubeconfig文件和该集群的API规范生成客户端。 要创建...
题目提供的"**kubernetes-server-linux-amd64.tar (1).gz**"即为Kubernetes服务器的Linux AMD64版本二进制文件,通过curl命令进行下载: ```bash curl -LO ...
这个"**kubernetes-server-linux-amd64.tar.gz**"安装包包含了在基于Linux的AMD64架构系统上部署Kubernetes集群所需的核心组件。该版本是v1.20.15,这是一款稳定版本,提供了大量的修复和优化。 Kubernetes主要由...
本篇文章将聚焦于“kubernetes-server-linux-amd64.tar”这一文件,深入解析其在Linux平台上的部署与使用,同时探讨k8s的核心概念和技术细节。 首先,"kubernetes-server-linux-amd64.tar"是Kubernetes集群服务器的...
Kubernetes1.13 所需kubernetes-cni-0.6.0-0.x86_64.rpm rpm 包. tar -zxvf kubernetes-cni-0.6.0-0.x86_64.rpm.tar.gz yum install ./kubernetes-cni-0.6.0-0.x86_64.rpm kubelet-1.13.0 kubeadm-1.13.0 kubectl-...
kubernetes-dashboard-amd64-v1.10.0镜像,docker load -i kubernetes-dashboard-amd64-v1.10.0.tgz
Kubernetes客户端Linux AMD64资源包,`kubernetes-client-linux-amd64.tar.gz`,是专为基于Linux的AMD64(也称为x86_64)架构设计的Kubernetes命令行接口(CLI)工具集。这个压缩包包含了一系列用于与Kubernetes集群...
"kubernetes-server-linux-amd64.tar.gz"是一个针对Linux AMD64平台的Kubernetes服务器安装包,它包含了部署Kubernetes集群所需的所有核心组件。本文将详细介绍如何利用这个压缩包在Linux环境中搭建Kubernetes集群。...
kubernetes-dashboard-amd64-v1.8.3镜像,镜像使用方法: docker load -i kubernetes-dashboard-amd64-v1.8.3.tar.gz
这个“kubernetes-server-linux-amd64-v1.15.4.tar.gz”文件是针对Linux 64位系统的Kubernetes服务器端1.15.4版本的离线安装包。这个版本的发布旨在帮助那些因网络问题无法从官方源直接下载的用户。 在Kubernetes ...
"kubernetes-client-darwin-amd64.tar.gz" 是一个针对苹果 macOS 操作系统(Darwin)的AMD64架构的Kubernetes客户端安装包。这个压缩包包含了运行在该平台上与Kubernetes集群通信所需的所有文件。 **Kubernetes基础...
由于CSDN限制上传大小,该...tar -xzf kubernetes-server-linux-amd64.tar.gz tar -xzf kubernetes_server_bin1.tar.gz -C kubernetes/server/bin/ tar -xzf kubernetes_server_bin2.tar.gz -C kubernetes/server/bin/
kubernetes-dashboard-amd64-v1.8.3镜像包,由于国外镜像无法下载,可以用这个包load到本地镜像,再上传到你的私有仓库,实现离线部署安装dashboard。解压后有操作命令
k8s.gcr.io/kubernetes-metrics-scraper:v1.0.1镜像tar包,使用 docker load --input kubernetes-metrics-scraper_v1.0.1.tar进行导入