Kubernetes(k8s) 笔记总结

Posted IT_Holmes

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Kubernetes(k8s) 笔记总结相关的知识,希望对你有一定的参考价值。

提示:kubernetes篇章开启。

文章目录

1. 云平台


国内常见云平台:

  • 阿里云、百度云、腾讯云、华为云、青云…

国外常见云平台:

  • 亚马逊 AWS、微软 Azure …

注册云平台:

  • 阿里云 aliyun.com
  • 腾讯云 cloud.tencent.com
  • 华为云 cloud.huawei.com
  • 青云 qingcloud.com
  • 百度云 cloud.baidu.com

Kubernetes就是青云开源的项目。

环境:准备一台云服务器(按量付费) 、搭建好nginx环境。

云服务器按量付费的好处:

2. 私有网络 VPC(重点!!!)


集群的一个小知识点:

集群之间的访问一般都是走私有IP进行访问。一方面私有IP访问快,也无需担心宽带等情况。


可以去阿里云配一个VPC私有网络。

VPC概念:私有网络 也叫 专有网络。

首先,理解子网掩码概念:

子网掩码(subnet mask)又叫网络掩码、地址掩码、子网络遮罩,它用来指明一个IP地址的哪些位标识的是主机所在的子网,以及哪些位标识的是主机的位掩码。子网掩码不能单独存在,它必须结合IP地址一起使用。

例如:192.168.0.0/16:

  • 后面的16:代表16位掩码。

在线网络计算器:https://www.sojson.com/convert/subnetmask.html

可以通过一些网络计算器得到二进制对应数据:

定义的18位掩码那就是对应ip二进制的前18位固定,后面的可以动态变化,以此进行分配ip的效果。


注意:其中,网络(192.168.0.0) 和 广播(192.168.255.255)不能分配,因此不可用!

交换机:可以继续向下进行分配管理IP。

  • 一般一个VPC下面有多个交换机。

总而言之,VPC就是起到了一个局域隔离的效果,好处就是多个微服务或者其他系统服务器,只要都处于同一个VPC下就可以相互互通,无需访问外网。效果更好,安全更高

一般公司,开发环境、测试环境、生产环境各都有一个VPC。


服务器配置:

3. Kubernetes 介绍


Kubernetes的作用就是负责管理的docker容器的。(专业术语:大规模容器编排系统。)

平时,创建一两个docker容器,手动操作命令,还算方便。但是,如果是几十个、上百个docker容器管理起来就非常麻烦。

官方网站:https://kubernetes.io/zh-cn/

kubernetes特性:
● 服务发现和负载均衡(容器发现 和 分配请求)
Kubernetes 可以使用 DNS 名称或自己的 IP 地址公开容器,如果进入容器的流量很大, Kubernetes 可以负载均衡并分配网络流量,从而使部署稳定。
● 存储编排 (创建一个容器就要有对应的存储,可以让k8s来管理。)
Kubernetes 允许你自动挂载你选择的存储系统,例如本地存储、公共云提供商等。
● 自动部署和回滚 (自动部署项目 和 回滚到之前版本等)
你可以使用 Kubernetes 描述已部署容器的所需状态,它可以以受控的速率将实际状态 更改为期望状态。例如,你可以自动化 Kubernetes 来为你的部署创建新容器, 删除现有容器并将它们的所有资源用于新容器。
● 自动完成装箱计算 (管理容器指标之类的)
Kubernetes 允许你指定每个容器所需 CPU 和内存(RAM)。 当容器指定了资源请求时,Kubernetes 可以做出更好的决策来管理容器的资源。
● 自我修复 (自我修复)
Kubernetes 重新启动失败的容器、替换容器、杀死不响应用户定义的 运行状况检查的容器,并且在准备好服务之前不将其通告给客户端。
● 密钥与配置管理 (管理配置的东西)
Kubernetes 允许你存储和管理敏感信息,例如密码、OAuth 令牌和 ssh 密钥。 你可以在不重建容器镜像的情况下部署和更新密钥和应用程序配置,也无需在堆栈配置中暴露密钥。

总而言之,k8s提供了一个可弹性运行分布式系统的框架。

k8s也可以轻松管理系统的Canary部署(灰度发布)。

4. k8s 架构


k8s工作方式:
Kubernetes Cluster = N Master Node + N Worker Node:N主节点+N工作节点; N>=1 (集群架构常用的一种策略。)

硅谷老师解释的k8s架构如下:

有决策的、存资料的、调度的、传递消息的、管理节点的等等一些系列角色之间的来回交互,实现整个k8s。


Control Plane(控制面板,总部):(master node 主节点)

  • kubectl:是程序员要操作的命令行,发给controller-manager。其实真正的决策者是kubectl
  • Control Plane(控制面板,总部):就是master节点,来操作worker 节点。并且自身由多个集群节点组成。
  • controller-manager(决策者):负责决策发号施令。
  • API server(秘书部)作用:控制集群之间的交互访问,保证每个server、节点的互通
  • ETCD(键值数据库):存储一些配置。
  • scheduler(调度者):动态计算一些内容,并且调度。

worker node 工作节点:

  • kubelet(厂长):负责管理worker node。
  • k-proxy(门卫大爷):node节点中的k-proxy与其他节点的k-proxy是同步的,相当于一个导游,起到一个指引的作用。因此,k-proxy是负责管理所有集群里面的网络访问的

5. kubectl 和 kubeadm


kubectl(kube control):一些k8s命令,由程序员操作。

kubeadm(kube admin):帮助程序员管理集群的。

  • 使用kubeadm来管理搭建k8s集群非常方便。

架构方式如下:

6. 三台云服务器的 安装部署


先准备三台云服务器(按需付费即可,不用时关闭!)。

  • 一台主节点、两台子节点。

三台服务器都分配到一个VPC下面,通过分配的内网IP,之间来回ping通即可。

没有公网还需要申请公网IP。

7. Kubernetes 环境搭建

7.1 安装docker环境


给三台机器安装Docker环境:

# 1. 卸载之前版本docker(一般不用)
sudo yum remove docker \\
                  docker-client \\
                  docker-client-latest \\
                  docker-common \\
                  docker-latest \\
                  docker-latest-logrotate \\
                  docker-logrotate \\
                  docker-engine

# 2. 安装一些yum-utils工具
sudo yum install -y yum-utils
# 3. 配置docker的yum源,就是告诉linux去哪里下载docker
sudo yum-config-manager \\
--add-repo \\
http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

# 4. 一般默认下载最新版本的docker
sudo yum install -y docker-ce docker-ce-cli containerd.io
# 以下是在安装k8s的时候使用
yum install -y docker-ce-20.10.7 docker-ce-cli-20.10.7  containerd.io-1.4.6

# 5. 配置docker加速镜像(阿里云搜索就行) 跳过
# 之后,进行查看是否配置成功
docker info 

# 6. 之后就是启动docker等操作。

7.2 安装k8s的 预备环境


服务器要求:

  • 一台兼容的 Linux 主机。Kubernetes 项目为基于 Debian 和 Red Hat 的 Linux 发行版以及一些不提供包管理器的发行版提供通用的指令
  • 每台机器 2 GB 或更多的 RAM (如果少于这个数字将会影响你应用的运行内存) 和 2 CPU 核或更多
  • 集群中的所有机器的网络彼此均能相互连接(公网和内网都可以)
    • 设置防火墙放行规则
  • 节点之中不可以有重复的主机名、MAC 地址或 product_uuid。请参见这里了解更多详细信息。
    • 设置不同hostname
  • 开启机器上的某些端口。请参见这里 了解更多详细信息。
    • 内网互信
  • 禁用交换分区。为了保证 kubelet 正常工作,你 必须 禁用交换分区。
    • 永久关闭

K8s官方要求以下相关操作:

  • 修改hostname名称 和 永久关闭交换分区。
# 1. 各个机器设置自己的域名 和 修改hostname文件一样
hostnamectl set-hostname xxxx

# 2. 将 SELinux 设置为 permissive 模式(相当于将其禁用)
# 临时禁用
sudo setenforce 0 
# 修改配置文件永久禁用
sudo sed -i 's/^SELINUX=enforcing$/SELINUX=permissive/' /etc/selinux/config

# 3. 关闭swap分区
swapoff -a  
sed -ri 's/.*swap.*/#&/' /etc/fstab

# 4. 允许 iptables 检查桥接流量 (流量桥接:ipv6桥接到ipv4网卡上)
cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
br_netfilter
EOF

cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
sudo sysctl --system

8. kubernetes集群 安装的三大件(kubelet、kubeadm、kubectl)


kubeadm(kube admin)、kubectl(kube control)、kubelet(厂长)。

安装kubelet、kubeadm、kubectl:

# 1. 配置阿里的kubernetes的yum镜像。
cat <<EOF | sudo tee /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
   http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
exclude=kubelet kubeadm kubectl
EOF

# 2. 安装kubelet、kubeadm、kubectl
sudo yum install -y kubelet-1.20.9 kubeadm-1.20.9 kubectl-1.20.9 --disableexcludes=kubernetes

# 3. 启动kubelet
sudo systemctl enable --now kubelet

kubelet 现在每隔几秒就会重启,因为它陷入一个等待kubeadm指令的死循环。因此,通过systemctl status kubelet检查状态的时候有时候正常,有时候关闭。

9. kubernetes集群 初始化主节点


第一步:下载各个机器需要的镜像(可以考虑按需引入,哪个节点需要啥就拉下啥,目前为了防止用到就每个节点全部下载下来了)。

# 1. 生成一个images.sh脚本文件
sudo tee ./images.sh <<-'EOF'
#!/bin/bash
images=(
kube-apiserver:v1.20.9
kube-proxy:v1.20.9
kube-controller-manager:v1.20.9
kube-scheduler:v1.20.9
coredns:1.7.0
etcd:3.4.13-0
pause:3.2
)
for imageName in $images[@] ; do
docker pull registry.cn-hangzhou.aliyuncs.com/lfy_k8s_images/$imageName
done
EOF

# 2. 执行脚本文件
chmod +x ./images.sh && ./images.sh

# 上面就是写了个脚本循环执行docker pull命令没什么困难。

第二步:添加主节点域名,并且初始化主节点。

# 1. 所有机器添加master域名映射(以下需要修改为自己的)
# 此处用的是VPC内网的地址,不是公网!通过ip a命令查看。
echo "172.31.0.2  cluster-endpoint" >> /etc/hosts


# 2. 主节点初始化(只在master节点进行初始化。)
kubeadm init \\
# apiserver-advertise-address对应master所在节点的ip
--apiserver-advertise-address=172.31.0.2 \\
# control-plane-endpoint控制面板:这里对应上面master的域名。
--control-plane-endpoint=cluster-endpoint \\
# 镜像仓库阿里云的
--image-repository registry.cn-hangzhou.aliyuncs.com/lfy_k8s_images \\
# k8s的版本
--kubernetes-version v1.20.9 \\
# service的网络范围 
--service-cidr=10.96.0.0/16 \\
# network的网络范围
--pod-network-cidr=192.168.0.0/16

# 要注意:上面的所有网络范围是不能重叠的。

看到这句话就代表初始化成功了:
根据英文意思不难翻译出以下几个内容:


上图复制:

Your Kubernetes control-plane has initialized successfully!

To start using your cluster, you need to run the following as a regular user:

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

Alternatively, if you are the root user, you can run:

  export KUBECONFIG=/etc/kubernetes/admin.conf

You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/

You can now join any number of control-plane nodes by copying certificate authorities
and service account keys on each node and then running the following as root:

  kubeadm join cluster-endpoint:6443 --token hums8f.vyx71prsg74ofce7 \\
    --discovery-token-ca-cert-hash sha256:a394d059dd51d68bb007a532a037d0a477131480ae95f75840c461e85e2c6ae3 \\
    --control-plane 

Then you can join any number of worker nodes by running the following on each as root:

kubeadm join cluster-endpoint:6443 --token hums8f.vyx71prsg74ofce7 \\
    --discovery-token-ca-cert-hash sha256:a394d059dd51d68bb007a532a037d0a477131480ae95f75840c461e85e2c6ae3

可以通过kubectl get nodes命令查看集群所有节点:

[root@k8s-master ~]  mkdir -p $HOME/.kube
[root@k8s-master ~]  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@k8s-master ~]  sudo chown $(id -u):$(id -g) $HOME/.kube/config
[root@k8s-master ~]  kubectl get nodes
NAME         STATUS     ROLES                  AGE     VERSION
k8s-master   NotReady   control-plane,master   6m35s   v1.20.9

第三步:根据提示安装一个网络组件(只在master节点运行)。

# 1. 下载calico的配置文件
curl https://docs.projectcalico.org/manifests/calico.yaml -O

# 2. kubectl通过这个文件进行一些列的下载安装配置操作。
kubectl apply -f calico.yaml

第四步:查看kubectl里面运行了几个Pod。

  • 运行中的应用在docker里面叫容器,在k8s里面叫Pod。
# 运行中的应用在docker里面叫容器,在k8s里面叫Pod
kubectl get pods -A


踩坑:

# 1. 下载对应版本呢
curl https://docs.projectcalico.org/v3.18/manifests/calico.yaml -O
# 2. 先使用delete清除资源,再apply创建资源
kubectl delete -f calico.yaml
kubectl apply -f calico.yaml
kubectl get pods -A # 查看容器是否准备成功。
kubectl get nodes # 查看节点是否准备成功。

等了好久终于启动起来了。

10. kubernetes集群 将Worker节点加入集群


第一步:在其他两个worker节点上,执行kubeadm join命令:

  • 在master节点,重新生成新令牌:kubeadm token create --print-join-command。
# 1. 新增workder节点。
kubeadm join cluster-endpoint:6443 --token rh26mq.26bfqa6f6ezdqna4 \\
--discovery-token-ca-cert-hash sha256:dd7200e7bada2811e9f6601a3326d62ada73236d6f40efeb90deda188171931e

# 补充:初始化后刚生成的令牌时效只有24小时 或者 不小心清理了。就可以通过以下命令重新生成新令牌。在master执行以下命令:
kubeadm token create --print-join-command

# 2. 主节点上查看看
kubectl get nodes

注意:只有主节点才能使用kubectl命令,在其他节点上只会被拒绝。

第二步:同样还是要等所有的pods应用都就绪才执行下一步操作。

到了这里等所有pods应用都就绪并且status为running,k8s集群就搭建成功。

11. kubernetes集群 集群自我修复能力


无论哪个节点重启,关机,故障了。都不会影响已经搭建好的k8s集群。


重启后可能会看到有些状态变成了error,但是不用担心!k8s会自动修复,过一段时间就会好了。

12. k8s的join令牌过期解决方式


# 在master执行以下命令:
kubeadm token create --print-join-command

13. k8s 部署dashboard


其实就是提供了一个web的可视化页面,就不用再去通过命令行去查看了。

kubernetes官方提供的可视化界面
https://github.com/kubernetes/dashboard


第一步:直接通过官方dashboard的配置文件进行安装。

# 在master节点执行
kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/v2.3.1/aio/deploy/recommended.yaml

第二步:同样等待pods就绪后,设置访问端口。

# 1. 在master执行以下命令,将文件中的type: ClusterIP改为type: NodePort
kubectl edit svc kubernetes-dashboard -n kubernetes-dashboard
# 作用:相当于把web访问页面的端口暴露到机器上

# 2. 获取端口,找到端口,在安全组放行
kubectl get svc -A |grep kubernetes-dashboard


上面对应的31287便是暴露后的端口,还需要配置安全组。

访问: https://集群任意IP:端口      https://139.198.165.238:31287

第三步:登录需要token令牌,所以要创建访问的账号,获取token令牌。

  • 创建一个dash.yaml文件。
#创建访问账号,准备一个yaml文件; vi dash.yaml
apiVersion: v1
kind: ServiceAccount
metadata:
  name: admin-user
  namespace: kubernetes-dashboard
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  name: admin-user
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: cluster-admin
subjects:
- kind: ServiceAccount
  name: admin-user
  namespace: kubernetes-dashboard

之后,kubectl apply -f dash-usr.yaml k8s应用一下这个配置即可。

最后,获取到访问令牌就可以登录了。

#获取访问令牌
kubectl -n kubernetes-dashboard get secret $(kubectl -n kubernetes-dashboard get sa/admin-user -o jsonpath=".secrets[0].name") -o go-template=".data.token | base64decode"

这样dashboard就部署好了。

以上是关于Kubernetes(k8s) 笔记总结的主要内容,如果未能解决你的问题,请参考以下文章

Kubernetes(k8s) 笔记总结

Kubernetes(k8s) 笔记总结

Kubernetes(k8s) 笔记总结

Kubernetes(k8s) 笔记总结

关于Kubernetes中kube-scheduler的一些笔记

kubernetes(K8S) 容器管理“扫盲“ 学习笔记