kubernetes Pod的详细总结

Posted 键客李大白

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了kubernetes Pod的详细总结相关的知识,希望对你有一定的参考价值。


Pod生命周期

Pod健康检测

Pod亲和性调度

Pod控制器:

  • ReplicationController、
  • ReplicationSet、
  • Deployment、
  • Statefulset、
  • DeamonSet、
  • Job、
  • CroninJob

Pod资源限制

污点和容忍度


Pod资源限制

kind: Pod
metadata:
name: lidabai
namespace: default
labels:
app: lidabai
spec:
containers:
- name: string
image: xxx
resources: #资源限制和请求的设置
limits: #资源限制的设置,节点上最低可
cpu: string #cpu的限制,单位为core数
memory: string #内存限制,单位可以为Mib/Gib
requests: #node节点剩余资源不足该值则不会调度到该节点
cpu: string #cpu请求,容器启动的初始可用数量
memory: string #内存请求,容器启动的初始可用内存


limits: 如果节点上可用资源为满足设定的值则不允许Pod调度到该节点;

requests:Pod最少使用的资源;


pod重启策略(RestartPolicy)

Pod重启策略应用于Pod内的所有容器,并且仅在Pod所处的Node上由kubelet进行判断和重启操作。当某个容器异常退出或者健康检查失败时,kubelet将根据 RestartPolicy 的设置来进行相应的操作。

Always:当容器失败时,由kubelet自动重启该容器(默认)

OnFailure:当容器终止运行且退出码不为0时,由kubelet自动重启该容器。

Never:不论容器运行状态如何,kubelet都不会重启该容器。

$ kubectl explain pod.spec 
restartPolicy:Always #Always、OnFailure 和 Never


亲和性与反亲和性调度

$ kubectl explain pods.spec.affinity 
nodeAffinity: #node节点亲和性调度
podAffinity: #Pod节点亲和性调度
pod<strong>Anti</strong>Affinity:: # Pod反亲和性

prefered表示有节点尽量满足这个位置定义的亲和性,这不是一个必须的条件,软亲和性

require表示必须有节点满足这个位置定义的亲和性,这是个硬性条件,硬亲和性

matchExpressions:匹配表达式的

matchFields: 匹配字段的

1. node节点选择器

​ 将Pod调度到满足一定条件的节点上。

我们在创建pod资源的时候,pod会根据schduler进行调度,那么默认会调度到随机的一个工作节点,如果我们想要pod调度到指定节点或者调度到一些具有相同特点的node节点,怎么办呢?

可以使用pod中的nodeName或者nodeSelector字段指定要调度到的node节点

1)nodeName

​ 指定Pod调度到具体的某个节点。

kind: Pod
spec:
nodeName: node01 #将Pod调度到node01节点
containers:
...

2)nodeSelector

​ 将Pod调度到具有指定标签的节点上。

kind: Pod
spec:
nodeSelector:
memory: enough #自定义标签
containers:

然后给node节点打上自定义的标签,则Pod会调度到打上该标签节点中的一个。


2.Pod亲和性调度(podAffinity)

​ 将关联性较强的两个Pod调度到一起。

一个Pod和另一个Pod频繁的互相访问,如果将两个Pod都调度到同一个节点上,则可以降低网络的延迟,提升通信效率。

kind: Pod
spec:
container:
...
affinity:
podAffinity: #Pod亲和性调度
requiredDuringSchedulingIgnoredDuringExecution: #硬亲和性(必须满足指定条件)
nodeSelectorTerms:
- matchExpressions: #匹配表达式的
- key: zone #检查label
operator: In #做等值选则还是不等值选则
values: #给定值
- foo
- bar


3.Pod反亲和性(podAntiAffinity)

​ pod和pod更倾向不腻在一起,如果部署两套程序,那么这两套程序更倾向于反亲和性,这样相互之间不会有影响。

spec:
containers:
...
affinity:
podAntiAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
- labelSelector:
matchExpressions:
- key: app1, operator: In, values: ["myapp1"] #格式必须为该样式
topologyKey: kubernetes.io/hostname #位置拓扑键



污点(Taint)和容忍度(tolerations)

​ 给节点打上污点(taint),在pod上定义容忍度,如果Pod不能容忍节点上的污点,则Pod不会调度到该节点。

​ 污点就是定义在节点上的键值属性数据,可以定决定拒绝那些pod;

排斥等级(effect)

  • NodeSchedule: 仅影响pod调度过程,当pod能容忍这个节点污点,就可以调度到当前节点,后来这个节点的污点改了,加了一个新的污点,使得之前调度的pod不能容忍了,那这个pod会怎么处理,对现存的pod对象不产生影响
  • NoExecute

​ 既影响调度过程,又影响现存的pod对象,如果现存的pod不能容忍节点后来加的污点,这个pod就会被驱逐

  • PreferNoSchedule

​ 最好不,也可以,是NoSchedule的柔性版本

污点(taints)

K8S常见内置的污点:

当某些条件为真时,节点控制器会自动为该节点添加污点。

Node.kubernetes.io/NoSchedule:

如果一个Pod没有声明容忍这个Taint,则系统不会把该Pod调度到这个Taint的node上;

Node.kubernetes.io/NoExecute:

定义Pod的驱逐行为,以应对节点故障;

Node.kubernetes.io/not-ready:

节点尚未准备好;

,对应于NodeConditionReady为Unknown;

Node.kubernetes.io/out-of-disk:

节点磁盘不足;

Node.kubernetes.io/memory-pressure

节点有内存压力;

Node.kubernetes.io/:disk-pressure

节点有磁盘压力;

Node.kubernetes.io/:network-unavailable:

节点的网络不可用;

Node.kubernetes.io/:unschedulable:

节点不可调度;

  • 给节点打上污点
$ kubectl taint node node2 node-type=production:NoSchedule


  • 查看节点上的污点
$ kubectl describe node master1 | grep Taints   #查看master1节点上的污点
Taints: node-role.kubernetes.io/master:NoSchedule


  • 删除节点上的污点
$ kubectl describe node master1 | grep Taints
Taints: node-role.kubernetes.io/master:NoSchedule
$ kubectl taint node master1 node-role.kubernetes.io/master-


容忍度(tolerations)

kind: Pod
spec:
containers:
tolerations
- key:"node-type"
operator: Equal #Equal(默认). Exists
value: "production"
effect: "NoExecute" #定义对pod对象的排斥等级
tolerationSeconds: 3600


operator= Equal:等值判断,key和Value完全匹配

operator= Exists:存在性判断,key和effect必须同时匹配,value可以是空

以上是关于kubernetes Pod的详细总结的主要内容,如果未能解决你的问题,请参考以下文章

Kubernetes 调度使用介绍(亲和反亲和污点容忍)

Kubernetes 调度使用介绍(亲和反亲和污点容忍)

Kubernetes污点(taints)与容忍(tolerations)

Kubernetes——污点容忍故障排除

kubernetes调度之污点(taint)和容忍(toleration)

Kubernetes的污点(Taint)和容忍(Tolerations)