K8S-资源清单
Posted guardwhy
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了K8S-资源清单相关的知识,希望对你有一定的参考价值。
1.1 资源清单格式
1、基本介绍
资源清单有5个字段组成:apiVersion
、kind
、metadata
、spec
、status
。
apiVersion: group/apiversion # 如果没有给定 group 名称,那么默认为 core,可以使用
kubectl apiversions # 获取当前 k8s 版本上所有的 apiVersion 版本信息(每个版本可能不同)
kind: #资源类别
metadata: #资源元数据
name
namespace
lables
annotations # 主要目的是方便用户阅读查找
spec: # 期望的状态(disired state)
status:# 当前状态,本字段有 Kubernetes 自身维护,用户不能去定义
2、使用kubectl命令可以查看apiVersion的各个版本信息
[root@k8s-master01 pods]# kubectl api-versions
admissionregistration.k8s.io/v1
admissionregistration.k8s.io/v1beta1
apiextensions.k8s.io/v1
apiextensions.k8s.io/v1beta1
apiregistration.k8s.io/v1
apiregistration.k8s.io/v1beta1
.........
rbac.authorization.k8s.io/v1beta1
scheduling.k8s.io/v1
scheduling.k8s.io/v1beta1
storage.k8s.io/v1
storage.k8s.io/v1beta1
v1
[root@k8s-master01 pods]#
3、字段配置格式类型
资源清单中大致可以分为以下类型
apiVersion <string> #表示字符串类型
metadata <Object> #表示需要嵌套多层字段
labels <map[string]string> #表示由k:v组成的映射
finalizers <[]string> #表示字串列表
ownerReferences <[]Object> #表示对象列表
hostPID <boolean> #布尔类型
priority <integer> #整型
name <string> -required- #如果类型后面接 -required-,表示为必填字段
1.2 pod生命周期
1、环境所需要镜像
docker pull busybox:1.32.0
2、注意事项:
readiness
探测成功后,Pod才会改变成Ready或者Running等状态!!Liveness
探测主容器已经损坏,不能正常工作,就会执行相应的策略!!
1.2.1 深入理解initC
1、initC基本特点
initC
总是运行到成功完成为止,每个initC
容器都必须在下一个initC
启动之前成功完成。- 如果
initC
容器运行失败,K8S集群会不断的重启该pod
,直到initC
容器成功为止。 - 如果pod对应的
restartPolicy
为never
,它就不会重新启动。
2、在k8sdemo01
工程创建initcpod.yml
文件
apiVersion: v1
kind: Pod
metadata:
name: initcpod-test
labels:
app: initcpod-test
spec:
containers:
- name: initcpod-test #相位
image: busybox:1.32.0
imagePullPolicy: IfNotPresent
command: ['sh','-c','echo The app is running! && sleep 3600']
initContainers:
- name: init-myservice
image: busybox:1.32.0
imagePullPolicy: IfNotPresent
command: ['sh','-c','until nslookup myservice; do echo waitting for myservice; sleep 2; done;']
- name: init-mydb
imagePullPolicy: IfNotPresent
image: busybox:1.32.0
command: ['sh','-c','until nslookup mydb; do echo waitting for mydb; sleep 2; done;']
restartPolicy: Always
3、获取节点
[root@k8s-master01 pods]# ls
initcpod.yml
[root@k8s-master01 pods]# kubectl apply -f initcpod.yml
pod/initcpod-test created
[root@k8s-master01 pods]# kubectl get pod
NAME READY STATUS RESTARTS AGE
initcpod-test 0/1 Init:1/2 0 22s
[root@k8s-master01 pods]# kubectl get pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
initcpod-test 0/1 Init:1/2 0 38s 10.81.85.228 k8s-node01 <none> <none>
[root@k8s-master01 pods]#
4、在k8sdemo01
工程创建initcservice1.yml
和initcservice2.yml
文件
initcservice1.yml
apiVersion: v1
kind: Service
metadata:
name: myservice
spec:
selector:
app: myservice
ports:
- port: 80
targetPort: 9376
protocol: TCP
initcservice2.yml
apiVersion: v1
kind: Service
metadata:
name: mydb
spec:
selector:
app: mydb
ports:
- port: 80
targetPort: 9377
protocol: TCP
5、使用Remote Host,将本工程中的文件上传k8s集群
6、通过idea的Remote Host快速将yml文件上传k8s集群进行测试
[root@k8s-master01 pods]# ls
initcpod.yml initcservice2.yml
initcservice1.yml
# 1、运行initcservice1服务
[root@k8s-master01 pods]# kubectl apply -f initcservice1.yml
service/myservice created
# 2、运行initcservice2服务
[root@k8s-master01 pods]# kubectl apply -f initcservice2.yml
service/mydb created
# 3、查看服务运行情况
[root@k8s-master01 pods]# kubectl get svc
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
kubernetes ClusterIP 10.1.0.1 <none> 443/TCP 4d2h
mydb ClusterIP 10.1.100.194 <none> 80/TCP 30s
myservice ClusterIP 10.1.176.237 <none> 80/TCP 50s
[root@k8s-master01 pods]# kubectl apply -f initcpod.yml
pod/initcpod-test created
# 4、发现pod的两个init已经就绪,pod状态为ready
[root@k8s-master01 pods]# kubectl get pod -w
NAME READY STATUS RESTARTS AGE
initcpod-test 0/1 Init:1/2 0 32s
initcpod-test 0/1 PodInitializing 0 2m32s
initcpod-test 1/1 Running 0 2m33s
1.2.2 readinessProbe(就绪检测)
1、环境所需的镜像。
docker pull nginx:1.17.10-alpine
2、在k8sdemo01
工程创建readinessProbe.yml
文件
apiVersion: v1
kind: Pod
metadata:
name: readinesspod-test
labels:
app: readinesspod-test
spec:
containers:
- name: readinesspod-test
image: nginx:1.17.10-alpine
imagePullPolicy: IfNotPresent
readinessProbe:
httpGet:
port: 80
path: /index1.html
initialDelaySeconds: 2
periodSeconds: 3
restartPolicy: Always
3、使用Remote Host,将本工程中的文件上传k8s集群
4、通过idea的Remote Host快速将yml文件上传k8s集群进行测试
[root@k8s-master01 pods]# ls
initcpod.yml initcservice1.yml initcservice2.yml readinessProbe.yml
# 1、创建pod
[root@k8s-master01 pods]# kubectl apply -f readinessProbe.yml
pod/readinesspod-test created
# 2、检查pod状态,虽然pod状态显示running但是ready显示0/1,因为就绪检查未通过
[root@k8s-master01 pods]# kubectl get pod
NAME READY STATUS RESTARTS AGE
readinesspod-test 0/1 Running 0 5m57s
# 3、进入pod内部
[root@k8s-master01 pods]# kubectl exec -it readinesspod-test sh
# 4、进入容器内目录
/ # cd /usr/share/nginx/html/
# 5、追加一个index1.html文件
/usr/share/nginx/html # echo "hello k8s" >> index1.html
/usr/share/nginx/html # ls
50x.html index.html index1.html
# 6、退出容器,再次查看pod状态,pod已经正常启动
/usr/share/nginx/html # exit
[root@k8s-master01 pods]# kubectl get pod
NAME READY STATUS RESTARTS AGE
readinesspod-test 1/1 Running 0 7m38s
[root@k8s-master01 pods]#
1.2.3 livenessProbe(存活检测)
1、环境所需要镜像
docker pull busybox:1.32.0
2、在k8sdemo01
工程创建livenessprobe1.yml
文件
apiVersion: v1
kind: Pod
metadata:
name: livenessprobepod1-test
labels:
app: livenessprobepod1-test
spec:
containers:
- name: livenessprobepod1-test
image: busybox:1.32.0
imagePullPolicy: IfNotPresent
command: ['/bin/sh','-c','touch /tmp/livenesspod;sleep 30; rm -rf /tmp/livenesspod; sleep 3600']
livenessProbe:
exec:
command: ['test','-e','/tmp/livenesspod']
initialDelaySeconds: 1
periodSeconds: 3
restartPolicy: Always
3、通过idea的Remote Host快速将yml文件上传k8s集群进行测试
[root@k8s-master01 pods]# ls
initcpod.yml initcservice1.yml initcservice2.yml livenessprobe1.yml readinessProbe.yml
# 1、创建pod
[root@k8s-master01 pods]# kubectl apply -f livenessprobe1.yml
pod/livenessprobepod1-test created
# 2、监控pod状态变化,容器正常启动
[root@k8s-master01 pods]# kubectl get pod -w
NAME READY STATUS RESTARTS AGE
livenessprobepod1-test 1/1 Running 0 23s
readinesspod-test 1/1 Running 0 48m
# 3、等待30秒后,发现pod的RESTARTS值从0变为1.说明pod已经重启一次
livenessprobepod1-test 1/1 Running 1 70s
livenessprobepod1-test 1/1 Running 2 2m19s
livenessprobepod1-test 1/1 Running 3 3m27s
livenessprobepod1-test 1/1 Running 4 4m36s
livenessprobepod1-test 1/1 Running 5 5m46s
^C[root@k8s-master01 pods]#
3、环境所需要镜像
docker pull nginx:1.17.10-alpine
4、在k8sdemo01
工程创建livenessprobe2.yml
文件
apiVersion: v1
kind: Pod
metadata:
name: livenesspod2-test
labels:
app: livenesspod2-test
spec:
containers:
- name: livenesspod2-test
image: nginx:1.17.10-alpine
imagePullPolicy: IfNotPresent
livenessProbe:
httpGet:
port: 80
path: /index.html
initialDelaySeconds: 3
timeoutSeconds: 5
restartPolicy: Always
5、通过idea的Remote Host快速将yml文件上传k8s集群进行测试
[root@k8s-master01 pods]# ls
initcpod.yml initcservice2.yml livenessprobe2.yml
initcservice1.yml livenessprobe1.yml readinessProbe.yml
# 1、创建pod
[root@k8s-master01 pods]# kubectl apply -f livenessprobe2.yml
pod/livenesspod2-test created
# 2、查看pod状态
[root@k8s-master01 pods]# kubectl get pod
NAME READY STATUS RESTARTS AGE
livenesspod2-test 1/1 Running 0 10s
# 3、查看容器IP,访问index.html页面,index.html页面可以正常访问
[root@k8s-master01 pods]# kubectl get pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
livenesspod2-test 1/1 Running 0 19s 10.81.85.223 k8s-node01 <none> <none>
[root@k8s-master01 pods]# curl 10.81.85.223
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
<style>
body {
width: 35em;
margin: 0 auto;
font-family: Tahoma, Verdana, Arial, sans-serif;
}
</style>
</head>
<body>
<h1>Welcome to nginx!</h1>
<p>If you see this page, the nginx web server is successfully installed and
working. Further configuration is required.</p>
<p>For online documentation and support please refer to
<a href="http://nginx.org/">nginx.org</a>.<br/>
Commercial support is available at
<a href="http://nginx.com/">nginx.com</a>.</p>
<p><em>Thank you for using nginx.</em></p>
</body>
</html>
# 4、进入容器内部
[root@k8s-master01 pods]# kubectl exec -it livenesspod2-test sh
# 5、删除index.html文件,退出容器
/ # rm -rf //usr/share/nginx/html/index.html
/ # exit
# 6、再次监控pod状态,等待一段时间后,发现pod的RESTARTS值从0变为1.说明pod已经重启一次。
[root@k8s-master01 pods]# kubectl get pod -w
NAME READY STATUS RESTARTS AGE
livenesspod2-test 1/1 Running 0 92s
livenesspod2-test 1/1 Running 1 97s
^C[root@k8s-master01 pods]# kubectl get pods -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
livenesspod2-test 1/1 Running 1 113s 10.81.85.223 k8s-node01 <none> <none>
[root@k8s-master01 pods]# curl 10.81.85.223
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
<style>
body {
width: 35em;
margin: 0 auto;
font-family: Tahoma, Verdana, Arial, sans-serif;
}
</style>
</head>
<body>
<h1>Welcome to nginx!</h1>
<p>If you see this page, the nginx web server is successfully installed and
working. Further configuration is required.</p>
<p>For online documentation and support please refer to
<a href="http://nginx.org/">nginx.org</a>.<br/>
Commercial support is available at
<a href="http://nginx.com/">nginx.com</a>.</p>
<p><em>Thank you for using nginx.</em></p>
</body>
</html>
# 7、进入容器删除文件一条命令执行rm -rf命令后退出容器。
[root@k8s-master01 pods]# kubectl exec -it livenesspod2-test -- rm -rf /usr/share/nginx/html/index.html
# 8、再次监控pod状态,等待一段时间后,发现pod的RESTARTS值从1变为2.说明pod已经重启一次。
[root@k8s-master01 pods]# kubectl get pod -w
NAME READY STATUS RESTARTS AGE
livenesspod2-test 1/1 Running 1 2m43s
livenesspod2-test 1/1 Running 2 2m57s
^C
[root@k8s-master01 pods]#
小结: liveness
监控index.html
页面已经被删除,所以pod需要重新启动,重启后又重新创建nginx镜像,nginx镜像中默认有index.html
页面。
6、环境所需要镜像
docker pull nginx:1.17.10-alpine
7、在k8sdemo01
工程创建livenessprobe3.yml
文件
apiVersion: v1
kind: Pod
metadata:
name: livenesspod3-test
labels:
app: livenesspod3-test
spec:
containers:
- name: livenesspod3-test
image: nginx:1.17.10-alpine
imagePullPolicy: IfNotPresent
livenessProbe:
tcpSocket:
port: 8080
initialDelaySeconds: 6
periodSeconds: 3
timeoutSeconds: 5
restartPolicy: Always
8、通过idea的Remote Host快速将yml文件上传k8s集群进行测试
# 1、创建pod
[root@k8s-master01 pods]# kubectl apply -f livenessprobe3.yml
pod/livenesspod3-test created
# 2、查看pod状态,存活检测监听8080端口,8080端口没有反馈信息后重启pod,RESTARTS值从0变为1。
[root@k8s-master01 pods]# kubectl get pod -w
NAME READY STATUS RESTARTS AGE
livenesspod3-test 1/1 Running 0 31s
livenesspod3-test 1/1 Running 1 45s
livenesspod3-test 1/1 Running 2 57s
livenesspod3-test 1/1 Running 3 69s
livenesspod3-test 0/1 CrashLoopBackOff 3 80s
livenesspod3-test 1/1 Running 4 110s
livenesspod3-test 1/1 Running 5 2m2s
livenesspod3-test 0/1 CrashLoopBackOff 5 2m14s
^C
[root@k8s-master01 pods]#
1.2.4 postStart函数
1、环境所需要镜像
docker pull busybox:1.32.0
2、在k8sdemo01
工程创建poststart.yml
文件
apiVersion: v1
kind: Pod
metadata:
name: lifecle-test
labels:
app: lifecle-test
spec:
containers:
- name: poststart-test
image: busybox:1.32.0
imagePullPolicy: IfNotPresent
command: ['sh','-c','sleep 2000']
lifecycle:
postStart:
exec:
command: ['mkdir','-p','/k8s/index.html']
restartPolicy: Always
3、通过idea的Remote Host快速将yml文件上传k8s集群进行测试
[root@k8s-master01 pods]# ls
initcpod.yml initcservice2.yml livenessprobe2.yml poststart.yml
initcservice1.yml livenessprobe1.yml livenessprobe3.yml readinessProbe.yml
# 1、创建pod
[root@k8s-master01 pods]# kubectl apply -f poststart.yml
pod/poststart-test created
# 2、查看pod状态
[root@k8s-master01 pods]# kubectl get pod
NAME READY STATUS RESTARTS AGE
poststart-test 1/1 Running 0 13s
# 3、进入容器内部,查看是否创建了/k8s/index.html文件
[root@k8s-master01 pods]# kubectl exec -it poststart-test sh
/ # ls
bin dev etc home k8s proc root sys tmp usr var
/ # cd /k8s/
/k8s # ls
index.html
/k8s # cd index.html/
/k8s/index.html # ls
/k8s/index.html # exit
[root@k8s-master01 pods]#
1.3 pod周期总结
pod对象自从创建开始至终止退出的时间范围称为生命周期,在这段时间中,pod会处于多种不同的状态,并执行一些操作;其中,创建主容器为必须的操作,其他可选的操作还包括运行【初始化容器(init container)】、【容器启动后钩子(start hook)】、【容器的存活性探测(liveness probe)】、【就绪性探测(readiness probe)】、【容器终止前钩子(pre stop hook)】等,这些操作是否执行则取决于pod的定义 。
1.3.1 pod相位
使用 kubectl get pods
命令,STATUS
被称之为相位(phase)。
无论是手动创建还是通过控制器创建pod,pod对象处于生命进程中以下相位:
pending
:apiserver创建了pod资源对象并存入etcd中,但它尚未被调度完成或者仍处于下载镜像的过程中。running
:pod已经被调度至某节点,并且所有容器都已经被kubelet创建完成。succeeded
:pod中的所有容器都已经成功终止并且不会被重启。failed
:所有容器都已经终止,但至少有一个容器终止失败,即容器返回了非0值的退出状态或已经被系统终止。unknown
:apiserver无法正常获取到pod对象的状态信息,通常是由于其无法于所在工作节点的kubelet通信所致。
注意: pod的相位是在其生命周期中的宏观概念,而非对容器或pod对象的综合汇总,而且相位的数量和含义被严格界定。
1.3.2 pod创建过程
pod是k8s的基础单元,以下为一个pod资源对象的典型创建过程:
- 用户通过kubectl或其他api客户端提交pod spec给api server
- api server尝试着将pod对象的相关信息存入etcd中,待写入操作执行完成,api server即会返回确认信息至客户端。
- api server开始反映etcd中的状态变化,所有的k8s组件均使用watch机制来跟踪检查api server上的相关变动。
- kube-scheduler通过其watch觉察到api server创建了新的pod对象但尚未绑定至任何工作节点。
- kube-scheduler为pod对象挑选一个工作节点并将结果信息更新至api server。
- 调度结果信息由api server更新至etcd,而且api server也开始反映此pod对象的调度结果。
- pod被调度到目标工作节点上的kubelet尝试在当前节点上调用docker启动容器,并将容器的结果状态回送至api server。
- api server将pod状态信息存入etcd中,在etcd确认写入操作成功完成后,api server将确认信息发送至相关的kubelet。
1.3.3 pod生命周期重要行为
用户可以为pod对象定义其生命周期中的多种行为,如初始化容器、存活性探测及就绪性探测等。
1、初始化容器
初始化容器即应用程序的主容器启动之前要运行的容器,常用于为主容器执行一些预置操作,它们具有两种典型特征:
- 初始化容器必须运行完成直至结束,若某初始化容器运行失败,那么k8s需要重启它直到成功完成。
- 每个初始化容器都必须按定义的顺序串行运行。
2、有不少场景都需要在应用容器启动之前进行部分初始化操作,例如,等待其他相关联组件服务可用、基于环境变量或配置模板为应用程序生成配置文件、从配置中心获取配置等。初始化容器的典型应用需求具体包含如下几种方式:
-
用于运行特定的工具程序,出于安全等反面的原因,这些程序不适于包含在主容器镜像中。
-
提供主容器镜像中不具备的工具程序或自定义代码。
-
为容器镜像的构建和部署人员提供了分离、独立工作的途径,使得它们不必协同起来制作单个镜像文件。
-
初始化容器和主容器处于不同的文件系统视图中,因此可以分别安全地使用敏感数据。
注意: pod资源的spec.initContainers
字段以列表的形式定义可用的初始容器,其嵌套可用字段类似于spec.containers
。
1.3.4 生命周期钩子函数
1、容器生命周期钩子使它能够感知其自身生命周期管理中的事件,并在相应的时刻到来时运行由用户指定的处理程序代码。
2、k8s为容器提供了两种生命周期钩子:
postStart
:于容器创建完成之后立即运行的钩子处理器(handler)
,不过k8s无法确保它一定会于容器中的entrypoint之前运行。preStop
:于容器终止操作之前立即运行的钩子处理器,它以同步的方式调用,因此在其完成之前会阻塞删除容器的操作调用。
3、钩子处理器的实现方法由Exec和HTTP两种,前一种在钩子事件触发时直接在当前容器中运行由用户定义的命令,后一种则是在当前容器中向某url发起http请求。postStart
和preStop
处理器定义在spec.lifecycle
嵌套字段中。
1.3.5 容器探测
1、容器探测时pod对象生命周期中的一项重要的日常任务,它是kubelet对容器周期性执行的健康状态诊断,诊断操作由容器的处理器进行定义。
2、k8s支持三种容器探针用于pod探测:
ExecAction
:在容器中执行一个命令,并根据其返回的状态码进行诊断的操作称为Exec探测,状态码为0表示成功,否则即为不健康状态。TCPSocketAction
:通过与容器的某TCP端口尝试建立连接进行诊断,端口能够成功打开即为正常,否则为不健康状态。HTTPGetAction
:通过向容器IP地址的某指定端口的指定path发起HTTP GET请求进行诊断,响应码大于等于200且小于400时即为成功。
3、任何一种探测方式都可能存在三种结果:
success(成功)
:容器通过了诊断。failure(失败)
:容器未通过了诊断。unknown(未知)
:诊断失败,因此不会采取任何行动。
4、kubelet可在活动容器上执行两种类型的检测:
- (livenessProbe)存活性检测:用于判定容器是否处于运行状态,一旦此类检测未通过,kubelet将杀死容器并根据
restartPolicy
决定是否将其重启;未定义存活性检测的容器的默认状态未success
。 - (readinessProbe)就绪性检测:用于判断容器是否准备就绪并可对外提供服务;未通过检测的容器意味着尚未准备就绪,端点控制器会将其IP从所有匹配到此pod对象的
service
对象的端点列表中移除;检测通过之后,会再次将其IP添加至端点列表中。
1.3.6 容器重启策略
容器程序发生奔溃或容器申请超出限制的资源等原因都可能会导致pod对象的终止,此时是否应该重建该pod对象则取决于其重启策略(restartPolicy)属性的定义:
- Always:但凡pod对象终止就将其重启,此为默认设定。
- OnFailure:尽在pod对象出现错误时方才将其重启。
- Never:从不重启。
restartPolicy适用于pod对象中的所有容器,而且它仅用于控制在同一节点上重新启动pod对象的相关容器。首次需要重启的容器,将在其需要时立即进行重启,随后再次需要重启的操作将由kubelet延迟一段时间后进行,且反复的重启操作的延迟时长以此为10s、20s、40s、80s、160s和300s,300s是最大延迟时长。事实上,一旦绑定到一个节点,pod对象将永远不会重新绑定到另一个节点,它要么被重启,要么终止,直到节点发生故障或被删除。
1.3.7 pod终止过程
1、当用户提交删除请求之后,系统就会进行强制删除操作的宽限期倒计时,并将TERM信息发送给pod对象的每个容器中的主进程。宽限期倒计时结束后,这些进程将收到强制终止的KILL信号,pod对象随即也将由api server删除,如果在等待进程终止的过程中,kubelet或容器管理器发生了重启,那么终止操作会重新获得一个满额的删除宽限期并重新执行删除操作。
2、一个典型的pod对象终止流程具体如下:
- 用户发送删除pod对象的命令,api服务器中的pod对象会随着时间的推移而更新,在宽限期内(默认30s),pod被视为
dead
。 - 将pod标记为
terminating
状态,kubelet在监控到pod对象转为terminating
状态的同时启动pod关闭过程。 - 将pod标记为
terminating
状态,端点控制器监控到pod对象的关闭行为时将其从所有匹配到此端点的service资源的端点列表中移除。 - 如果当前pod对象定义了
preStop
钩子处理器,则在其标记为terminating
后即会以同步的方式启动执行,若宽限期结束后,preStop
仍未执行结束,则第二步会被重新执行并额外获取一个时长为2s
的小宽限期。 - pod对象中的容器进程收到
TERM
信号,宽限期结束后,若存在任何一个仍在运行的进程,那么pod
对象即会收到SIGKILL
信号。 - kubelet请求
api server
将此pod资源的宽限期设置为0从而完成删除操作,它变得对用户不再可见。
3、注意事项
默认情况下,所有删除操作的宽限期都是30s
,不过,kubectl delete命令可以使用--grace-period=
选项自定义其时长,若使用0值则表示直接强制删除指定的资源,不过此时需要同时使用命令--forece
选项。
以上是关于K8S-资源清单的主要内容,如果未能解决你的问题,请参考以下文章