kuberneteskubeadm安装多master节点的k8s集群

Posted DonotCTR

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了kuberneteskubeadm安装多master节点的k8s集群相关的知识,希望对你有一定的参考价值。

1、概述

【kubernetes】kubeadm安装多master节点的k8s集群_kubeadm

      K8s主要分为master节点(控制节点)和node节点(运行容器pod),master节点中有apiserver、controller manager、scheduler和etcd几个主要组件,node节点一般有kubelet、kube-proxy、pod、还有网络插件等等。

K8s简单的工作流程:

  • 用户通过kubectl提交需要运行的docker container(pod);
  • master节点的api server把请求存储在etcd数据库中;
  • scheduler调度器进行扫描 ,将合适的node节点机器分配出去;
  • node节点的kublet找到自己要跑的container,在本机上运行。

k8s核心功能:

  1. 自愈: 重新启动失败的容器,在节点不可用时,替换和重新调度节点上的容器,对用户定义的健康检查不响应的容器会被中止,并且在容器准备好服务之前不会把其向客户端广播。
  2. 弹性伸缩: 通过监控容器的cpu的负载值,如果这个平均高于80%,增加容器的数量,如果这个平均低于10%,减少容器的数量。
  3. 服务的自动发现和负载均衡: 不需要修改您的应用程序来使用不熟悉的服务发现机制,k8s为容器提供了自己的IP地址和一组容器的单个DNS 名称,并可以在它们之间进行负载均衡。
  4. 滚动升级和一键回滚: k8s逐渐部署对应用程序或其配置的更改,同时监视应用程序运行状况,以确保它不会同时终止所有实例。 如果出现问题,k8s会为您恢复更改,利用日益增长的部署解决方案的生态系统。
  5. 私密配置文件管理: web容器里面,数据库的账户密码(测试库密码)。


2、基础配置

2.1、服务器配置

server-IP

server-node

os

system

备注

192.168.2.80

VIP

-

-

浮动在master01-03服务器其中之一

192.168.2.81

master01

centos-7.9

8VCPU16G

第一次启动keepalived和nginx没有发生故障转移情况下,VIP在master01上

192.168.2.82

master02

centos-7.9

8VCPU16G


192.168.2.83

master03

centos-7.9

8VCPU16G


192.168.2.84

node01

centos-7.9

8VCPU16G


192.168.2.85

node02

centos-7.9

8VCPU16G


【kubernetes】kubeadm安装多master节点的k8s集群_nginx_02

修改所有主机hostname如上表,参考即可,根据自己实际情况处理

hostnamectl set-hostname master01

配置IP地址,参考即可,根据自己实际情况处理

# vim  /etc/sysconfig/network-scripts/ifcfg-ens33
TYPE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY="no"
BOOTPROTO="none"
DEFROUTE="yes"
IPV4_FAILURE_FATAL="yes"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="ens33"
UUID="8d2ff878-454e-48ca-8cf4-9ef5f987a3d2"
DEVICE="ens33"
ONBOOT="yes"
IPADDR="192.168.2.81" 唯一修改的地方
PREFIX="24"
GATEWAY="192.168.2.2"
DNS1="114.114.114.114"
IPV6_PRIVACY="no"

2.2、在master01--免密其他服务器和配置hosts

  由于很多操作在master01节点进行操作,方便传输文件,建议master01节点免密其他节点,由于是一些初始化操作,在本次搭建中都是使用的root用户,搭建完成后,在使用过程中建议使用普通用户sudo使用。

[root@master01 ~]# ssh-keygen 
[root@master01 ~]# ssh-copy-id 192.168.2.82
[root@master01 ~]# ssh-copy-id 192.168.2.83
[root@master01 ~]# ssh-copy-id 192.168.2.84
[root@master01 ~]# ssh-copy-id 192.168.2.85
[root@master01 ~]# vim /etc/hosts
192.168.2.81 master01
192.168.2.82 master02
192.168.2.83 master03
192.168.2.84 node01
192.168.2.85 node02

2.3、所有节点时间同步

# yum install -y ntp ntpdate
# crontab -e
*/5 * * * * ntpdate cn.pool.ntp.org

2.4、所有节点修改内核参数

[root@master01 ~]# modprobe br_netfilter
[root@master01 ~]# echo "modprobe br_netfilter" >> /etc/profile
[root@master01 ~]# cat > /etc/sysctl.d/k8s.conf <
> net.bridge.bridge-nf-call-ip6tables = 1
> net.bridge.bridge-nf-call-iptables = 1
> net.ipv4.ip_forward = 1
> EOF
[root@master01 ~]# sysctl -p /etc/sysctl.d/k8s.conf

2.5、所有节点关闭防火墙和selinux(记得重启一下)

[root@master01 ~]#  systemctl stop firewalld ; systemctl disable firewalld
[root@master01 ~]# sed -i s/SELINUX=enforcing/SELINUX=disabled/g /etc/selinux/config

2.6、所有节点加载docker和kubeletYUM源

配置YUM需要的命令,一般情况下,最小化安装系统是没有这个命令的

[root@master01 ~]# yum -y install yum-utils
配置dockerYUM源
[root@master01 ~]# yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
配置kubeadmYUM源
[root@master01 ~]# vi /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
enabled=1
gpgcheck=0
刷新YUM源
[root@master01 ~]# yum clean all
[root@master01 ~]# yum repolist

2.7、开启IPVS

安装rz命令,用于上传配置
[root@master01 modules]# yum install -y lrzsz
[root@master01 ~]# cd /etc/sysconfig/modules/
[root@master01 ~]# chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep ip_vs

【kubernetes】kubeadm安装多master节点的k8s集群_kubernetes_03

3、基础包部署-docker

3.1、所有节点-基础依赖包

[root@master01 ~]#  yum install -y yum-utils device-mapper-persistent-data lvm2  wget net-tools nfs-utils lrzsz gcc gcc-c++ make cmake libxml2-devel openssl-devel curl  curl-devel unzip sudo  libaio-devel wget vim ncurses-devel autoconf automake zlidevel python-devel epel-release openssh-server socat ipvsadm conntrack  telnet ipvsadm

3.2、docker部署

[root@master01 ~]# yum install docker-ce docker-ce-cli containerd.io
[root@master01 ~]# systemctl start docker
[root@master01 ~]# systemctl enable docker

3.3、配置docker镜像加速器和驱动

[root@master01 ~]#  vim /etc/docker/daemon.json

【kubernetes】kubeadm安装多master节点的k8s集群_docker_04

[root@master01 ~]# systemctl daemon-reload && systemctl restart docker

3.4、部署kubeadm相关软件包

[root@master01 ~]# yum install -y kubelet-1.23.5 kubeadm-1.23.5 kubectl-1.23.5  
(特别注意1.24.0之后版本无法docker)
[root@master01 ~]# systemctl enable kubelet && systemctl start kubelet

4、高可用设计keepalived+nginx

4.1、架构概述

     keeplived主要实现功能高可用和VIP,nginx主要实现api-server负载均衡,所以根据master节点,设置三个节点,并且和kubernetes的master节点部署在同样三台服务器上。

4.2、部署nginx(所有master节点)

[root@master01 ~]# tar -xf nginx-1.16.1.tar.gz
[root@master01 ~]# cd nginx-1.16.1
[root@master01 nginx-1.16.1]# ./configure --prefix=/usr/local/nginx --with-stream
[root@master01 nginx-1.16.1]# make && make install
[root@master01 ~]# cd /usr/local/nginx/conf/
[root@master01 conf]# cp nginx.conf nginx.confbak
[root@master01 conf]# vim nginx.conf(三个master节点一致)

【kubernetes】kubeadm安装多master节点的k8s集群_kubernetes_05

[root@master01 ~]# mkdir /var/log/nginx/  && useradd nginx
[root@master01 ~]# /usr/local/nginx/sbin/nginx -t
启动脚本
[root@master01 ~]# vim /etc/init.d/nginx

【kubernetes】kubeadm安装多master节点的k8s集群_keepalived_06

[root@master01 ~]# chmod +x /etc/init.d/nginx
[root@master01 ~]# /etc/init.d/nginx

4.3、部署keepalived(所有master节点)

[root@master01 ~]# tar -xf keepalived-2.2.7.tar.gz
[root@master01 ~]# cd keepalived-2.2.7
[root@master01 keepalived-2.2.7]# ./configure --prefix=/usr/local/keepalived
[root@master01 keepalived-2.2.7]# make && make install
启动脚本
[root@master01 ~]# vim /etc/init.d/keepalived

【kubernetes】kubeadm安装多master节点的k8s集群_docker_07

   前方高能特别注意:VIP地址根据自己实际情况填写

配置文件特别注意:
[root@master01 ~]# vim /usr/local/keepalived/etc/keepalived/keepalived.conf

【kubernetes】kubeadm安装多master节点的k8s集群_nginx_08

[root@master02 ~]# vim /usr/local/keepalived/etc/keepalived/keepalived.conf

【kubernetes】kubeadm安装多master节点的k8s集群_keepalived_09

[root@master03 ~]# vim /usr/local/keepalived/etc/keepalived/keepalived.conf

【kubernetes】kubeadm安装多master节点的k8s集群_kubernetes_10

[root@master01 ~]# /etc/init.d/keepalived

   查看VIP情况,一般情况下在master01节点查询即可

[root@master01 ~]# ip addr

【kubernetes】kubeadm安装多master节点的k8s集群_kubernetes_11

5、kubeadm部署kubernetes

5.1、在master01初始化

在master01进行初始化操作

[root@master01 ~]# more kubeadm-config.yaml

下图中的红框部分根据实际情况填写,kubernetes版本号可以根据:

[root@master01 ~]# kubectl  version
Client Version: version.InfoMajor:"1", Minor:"23", GitVersion:"v1.23.5", GitCommit:"c285e781331a3785a7f436042c65c5641ce8a9e9", GitTreeState:"clean", BuildDate:"2022-03-16T15:58:47Z", GoVersion:"go1.17.8", Compiler:"gc", Platform:"linux/amd64"
Server Version: version.InfoMajor:"1", Minor:"23", GitVersion:"v1.23.5", GitCommit:"c285e781331a3785a7f436042c65c5641ce8a9e9", GitTreeState:"clean", BuildDate:"2022-03-16T15:52:18Z", GoVersion:"go1.17.8", Compiler:"gc", Platform:"linux/amd64"

【kubernetes】kubeadm安装多master节点的k8s集群_keepalived_12

[root@master01 ~]# kubeadm init --config kubeadm-config.yaml --ignore-preflight-errors=SystemVerification

如下图表示正确完成初始化:

【kubernetes】kubeadm安装多master节点的k8s集群_kubernetes_13

5.2、添加相应的master节点和node节点

将master节点相关证书拷贝至master02-03

[root@master01 ~]# scp /etc/kubernetes/pki/ca.* 192.168.2.82:/etc/kubernetes/pki/
[root@master01 ~]# scp /etc/kubernetes/pki/sa.* 192.168.2.82:/etc/kubernetes/pki/
[root@master01 ~]# scp /etc/kubernetes/pki/front-proxy-ca.* 192.168.2.82:/etc/kubernetes/pki/
[root@master01 ~]# scp /etc/kubernetes/pki/etcd/ca.* 192.168.2.82:/etc/kubernetes/pki/etcd/
[root@master01 ~]# scp /etc/kubernetes/pki/ca.* 192.168.2.83:/etc/kubernetes/pki/
[root@master01 ~]# scp /etc/kubernetes/pki/sa.* 192.168.2.83:/etc/kubernetes/pki/
[root@master01 ~]# scp /etc/kubernetes/pki/front-proxy-ca.* 192.168.2.83:/etc/kubernetes/pki/
[root@master01 ~]# scp /etc/kubernetes/pki/etcd/ca.* 192.168.2.83:/etc/kubernetes/pki/etcd/

在master02-03节点执行以下命令

[root@master01 ~]# kubeadm join 192.168.2.80:16443 --token eeu9yc.v4uaf0zyrm2qi7qf \\
--discovery-token-ca-cert-hash sha256:683094c96357c5b47adcacf6937465347f1bd6286b7b6ba364ef7e5e4763beef \\
--control-plane

在node01-02节点执行以下命令

[root@master01 ~]# kubeadm join 192.168.2.80:16443 --token eeu9yc.v4uaf0zyrm2qi7qf \\
--discovery-token-ca-cert-hash sha256:683094c96357c5b47adcacf6937465347f1bd6286b7b6ba364ef7e5e4763beef

打上work节点标记

[root@master01 ~]#  kubectl label node node01 node-role.kubernetes.io/worker=worker
node/node01 labeled
[root@master01 ~]# kubectl label node node02 node-role.kubernetes.io/worker=worker
node/node02 labeled
[root@master01 ~]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
master01 Ready control-plane,master 3d5h v1.23.5
master02 Ready control-plane,master 3d4h v1.23.5
master03 Ready control-plane,master 3d4h v1.23.5
node01 Ready worker 3d4h v1.23.5
node02 Ready worker 3d4h v1.23.5

执行完成如下图:

【kubernetes】kubeadm安装多master节点的k8s集群_keepalived_14

5.3、添加calico网络插件

缺少网络插件,在master01节点执行如下命令

[root@master01 ~]# kubectl  apply -f calico.yaml

执行成功后,如下图:

【kubernetes】kubeadm安装多master节点的k8s集群_kubeadm_15

5.4、检测dns

[root@master01 ~]#  kubectl run busybox --image busybox:1.28 --restart=Never --rm  -it busybox -- sh

【kubernetes】kubeadm安装多master节点的k8s集群_keepalived_16

5.5、检查集群可用性---tomcat服务

将tomcat服务镜像上传至node01-02节点

[root@node01 ~]# docker load -i tomcat.tar.gz
[root@node02 ~]# docker load -i tomcat.tar.gz

在master01节点执行

[root@master01 ~]# kubectl  apply  -f tomcat.yaml 
pod/demo-pod created
[root@master01 ~]# kubectl apply -f tomcat-service.yaml
service/tomcat created

【kubernetes】kubeadm安装多master节点的k8s集群_docker_17

在浏览器访问,特别注意:因为所有节点都部署kube-proxy组件,所以所有节点IP地址+端口30080都是可以访问tomcat这个主页的,也包括VIP

【kubernetes】kubeadm安装多master节点的k8s集群_keepalived_18

以上是关于kuberneteskubeadm安装多master节点的k8s集群的主要内容,如果未能解决你的问题,请参考以下文章

mha安装报错 [error][/usr/share/perl5/vendor_perl/MHA/MasterMonitor.pm, ln361] None of slaves can be mast

MAST20006 离散分布

ryu安装总结

SSDB安装配置

安装xadmin后台管理

SaltStack 之 快速安装