kuberneteskubeadm安装多master节点的k8s集群
Posted DonotCTR
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了kuberneteskubeadm安装多master节点的k8s集群相关的知识,希望对你有一定的参考价值。
1、概述
K8s主要分为master节点(控制节点)和node节点(运行容器pod),master节点中有apiserver、controller manager、scheduler和etcd几个主要组件,node节点一般有kubelet、kube-proxy、pod、还有网络插件等等。
K8s简单的工作流程:
- 用户通过kubectl提交需要运行的docker container(pod);
- master节点的api server把请求存储在etcd数据库中;
- scheduler调度器进行扫描 ,将合适的node节点机器分配出去;
- node节点的kublet找到自己要跑的container,在本机上运行。
k8s核心功能:
- 自愈: 重新启动失败的容器,在节点不可用时,替换和重新调度节点上的容器,对用户定义的健康检查不响应的容器会被中止,并且在容器准备好服务之前不会把其向客户端广播。
- 弹性伸缩: 通过监控容器的cpu的负载值,如果这个平均高于80%,增加容器的数量,如果这个平均低于10%,减少容器的数量。
- 服务的自动发现和负载均衡: 不需要修改您的应用程序来使用不熟悉的服务发现机制,k8s为容器提供了自己的IP地址和一组容器的单个DNS 名称,并可以在它们之间进行负载均衡。
- 滚动升级和一键回滚: k8s逐渐部署对应用程序或其配置的更改,同时监视应用程序运行状况,以确保它不会同时终止所有实例。 如果出现问题,k8s会为您恢复更改,利用日益增长的部署解决方案的生态系统。
- 私密配置文件管理: web容器里面,数据库的账户密码(测试库密码)。
2、基础配置
2.1、服务器配置
server-IP | server-node | os | system | 备注 |
192.168.2.80 | VIP | - | - | 浮动在master01-03服务器其中之一 |
192.168.2.81 | master01 | centos-7.9 | 8VCPU16G | 第一次启动keepalived和nginx没有发生故障转移情况下,VIP在master01上 |
192.168.2.82 | master02 | centos-7.9 | 8VCPU16G | |
192.168.2.83 | master03 | centos-7.9 | 8VCPU16G | |
192.168.2.84 | node01 | centos-7.9 | 8VCPU16G | |
192.168.2.85 | node02 | centos-7.9 | 8VCPU16G |
修改所有主机hostname如上表,参考即可,根据自己实际情况处理
hostnamectl set-hostname master01
配置IP地址,参考即可,根据自己实际情况处理
# vim /etc/sysconfig/network-scripts/ifcfg-ens33
TYPE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY="no"
BOOTPROTO="none"
DEFROUTE="yes"
IPV4_FAILURE_FATAL="yes"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="ens33"
UUID="8d2ff878-454e-48ca-8cf4-9ef5f987a3d2"
DEVICE="ens33"
ONBOOT="yes"
IPADDR="192.168.2.81" 唯一修改的地方
PREFIX="24"
GATEWAY="192.168.2.2"
DNS1="114.114.114.114"
IPV6_PRIVACY="no"
2.2、在master01--免密其他服务器和配置hosts
由于很多操作在master01节点进行操作,方便传输文件,建议master01节点免密其他节点,由于是一些初始化操作,在本次搭建中都是使用的root用户,搭建完成后,在使用过程中建议使用普通用户sudo使用。
[root@master01 ~]# ssh-keygen
[root@master01 ~]# ssh-copy-id 192.168.2.82
[root@master01 ~]# ssh-copy-id 192.168.2.83
[root@master01 ~]# ssh-copy-id 192.168.2.84
[root@master01 ~]# ssh-copy-id 192.168.2.85
[root@master01 ~]# vim /etc/hosts
192.168.2.81 master01
192.168.2.82 master02
192.168.2.83 master03
192.168.2.84 node01
192.168.2.85 node02
2.3、所有节点时间同步
# yum install -y ntp ntpdate
# crontab -e
*/5 * * * * ntpdate cn.pool.ntp.org
2.4、所有节点修改内核参数
[root@master01 ~]# modprobe br_netfilter
[root@master01 ~]# echo "modprobe br_netfilter" >> /etc/profile
[root@master01 ~]# cat > /etc/sysctl.d/k8s.conf <
> net.bridge.bridge-nf-call-ip6tables = 1
> net.bridge.bridge-nf-call-iptables = 1
> net.ipv4.ip_forward = 1
> EOF
[root@master01 ~]# sysctl -p /etc/sysctl.d/k8s.conf
2.5、所有节点关闭防火墙和selinux(记得重启一下)
[root@master01 ~]# systemctl stop firewalld ; systemctl disable firewalld
[root@master01 ~]# sed -i s/SELINUX=enforcing/SELINUX=disabled/g /etc/selinux/config
2.6、所有节点加载docker和kubeletYUM源
配置YUM需要的命令,一般情况下,最小化安装系统是没有这个命令的
[root@master01 ~]# yum -y install yum-utils
配置dockerYUM源
[root@master01 ~]# yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
配置kubeadmYUM源
[root@master01 ~]# vi /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
enabled=1
gpgcheck=0
刷新YUM源
[root@master01 ~]# yum clean all
[root@master01 ~]# yum repolist
2.7、开启IPVS
安装rz命令,用于上传配置
[root@master01 modules]# yum install -y lrzsz
[root@master01 ~]# cd /etc/sysconfig/modules/
[root@master01 ~]# chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep ip_vs
3、基础包部署-docker
3.1、所有节点-基础依赖包
[root@master01 ~]# yum install -y yum-utils device-mapper-persistent-data lvm2 wget net-tools nfs-utils lrzsz gcc gcc-c++ make cmake libxml2-devel openssl-devel curl curl-devel unzip sudo libaio-devel wget vim ncurses-devel autoconf automake zlidevel python-devel epel-release openssh-server socat ipvsadm conntrack telnet ipvsadm
3.2、docker部署
[root@master01 ~]# yum install docker-ce docker-ce-cli containerd.io
[root@master01 ~]# systemctl start docker
[root@master01 ~]# systemctl enable docker
3.3、配置docker镜像加速器和驱动
[root@master01 ~]# vim /etc/docker/daemon.json
[root@master01 ~]# systemctl daemon-reload && systemctl restart docker
3.4、部署kubeadm相关软件包
[root@master01 ~]# yum install -y kubelet-1.23.5 kubeadm-1.23.5 kubectl-1.23.5
(特别注意1.24.0之后版本无法docker)
[root@master01 ~]# systemctl enable kubelet && systemctl start kubelet
4、高可用设计keepalived+nginx
4.1、架构概述
keeplived主要实现功能高可用和VIP,nginx主要实现api-server负载均衡,所以根据master节点,设置三个节点,并且和kubernetes的master节点部署在同样三台服务器上。
4.2、部署nginx(所有master节点)
[root@master01 ~]# tar -xf nginx-1.16.1.tar.gz
[root@master01 ~]# cd nginx-1.16.1
[root@master01 nginx-1.16.1]# ./configure --prefix=/usr/local/nginx --with-stream
[root@master01 nginx-1.16.1]# make && make install
[root@master01 ~]# cd /usr/local/nginx/conf/
[root@master01 conf]# cp nginx.conf nginx.confbak
[root@master01 conf]# vim nginx.conf(三个master节点一致)
[root@master01 ~]# mkdir /var/log/nginx/ && useradd nginx
[root@master01 ~]# /usr/local/nginx/sbin/nginx -t
启动脚本
[root@master01 ~]# vim /etc/init.d/nginx
[root@master01 ~]# chmod +x /etc/init.d/nginx
[root@master01 ~]# /etc/init.d/nginx
4.3、部署keepalived(所有master节点)
[root@master01 ~]# tar -xf keepalived-2.2.7.tar.gz
[root@master01 ~]# cd keepalived-2.2.7
[root@master01 keepalived-2.2.7]# ./configure --prefix=/usr/local/keepalived
[root@master01 keepalived-2.2.7]# make && make install
启动脚本
[root@master01 ~]# vim /etc/init.d/keepalived
前方高能特别注意:VIP地址根据自己实际情况填写
配置文件特别注意:
[root@master01 ~]# vim /usr/local/keepalived/etc/keepalived/keepalived.conf
[root@master02 ~]# vim /usr/local/keepalived/etc/keepalived/keepalived.conf
[root@master03 ~]# vim /usr/local/keepalived/etc/keepalived/keepalived.conf
[root@master01 ~]# /etc/init.d/keepalived
查看VIP情况,一般情况下在master01节点查询即可
[root@master01 ~]# ip addr
5、kubeadm部署kubernetes
5.1、在master01初始化
在master01进行初始化操作
[root@master01 ~]# more kubeadm-config.yaml
下图中的红框部分根据实际情况填写,kubernetes版本号可以根据:
[root@master01 ~]# kubectl version
Client Version: version.InfoMajor:"1", Minor:"23", GitVersion:"v1.23.5", GitCommit:"c285e781331a3785a7f436042c65c5641ce8a9e9", GitTreeState:"clean", BuildDate:"2022-03-16T15:58:47Z", GoVersion:"go1.17.8", Compiler:"gc", Platform:"linux/amd64"
Server Version: version.InfoMajor:"1", Minor:"23", GitVersion:"v1.23.5", GitCommit:"c285e781331a3785a7f436042c65c5641ce8a9e9", GitTreeState:"clean", BuildDate:"2022-03-16T15:52:18Z", GoVersion:"go1.17.8", Compiler:"gc", Platform:"linux/amd64"
[root@master01 ~]# kubeadm init --config kubeadm-config.yaml --ignore-preflight-errors=SystemVerification
如下图表示正确完成初始化:
5.2、添加相应的master节点和node节点
将master节点相关证书拷贝至master02-03
[root@master01 ~]# scp /etc/kubernetes/pki/ca.* 192.168.2.82:/etc/kubernetes/pki/
[root@master01 ~]# scp /etc/kubernetes/pki/sa.* 192.168.2.82:/etc/kubernetes/pki/
[root@master01 ~]# scp /etc/kubernetes/pki/front-proxy-ca.* 192.168.2.82:/etc/kubernetes/pki/
[root@master01 ~]# scp /etc/kubernetes/pki/etcd/ca.* 192.168.2.82:/etc/kubernetes/pki/etcd/
[root@master01 ~]# scp /etc/kubernetes/pki/ca.* 192.168.2.83:/etc/kubernetes/pki/
[root@master01 ~]# scp /etc/kubernetes/pki/sa.* 192.168.2.83:/etc/kubernetes/pki/
[root@master01 ~]# scp /etc/kubernetes/pki/front-proxy-ca.* 192.168.2.83:/etc/kubernetes/pki/
[root@master01 ~]# scp /etc/kubernetes/pki/etcd/ca.* 192.168.2.83:/etc/kubernetes/pki/etcd/
在master02-03节点执行以下命令
[root@master01 ~]# kubeadm join 192.168.2.80:16443 --token eeu9yc.v4uaf0zyrm2qi7qf \\
--discovery-token-ca-cert-hash sha256:683094c96357c5b47adcacf6937465347f1bd6286b7b6ba364ef7e5e4763beef \\
--control-plane
在node01-02节点执行以下命令
[root@master01 ~]# kubeadm join 192.168.2.80:16443 --token eeu9yc.v4uaf0zyrm2qi7qf \\
--discovery-token-ca-cert-hash sha256:683094c96357c5b47adcacf6937465347f1bd6286b7b6ba364ef7e5e4763beef
打上work节点标记
[root@master01 ~]# kubectl label node node01 node-role.kubernetes.io/worker=worker
node/node01 labeled
[root@master01 ~]# kubectl label node node02 node-role.kubernetes.io/worker=worker
node/node02 labeled
[root@master01 ~]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
master01 Ready control-plane,master 3d5h v1.23.5
master02 Ready control-plane,master 3d4h v1.23.5
master03 Ready control-plane,master 3d4h v1.23.5
node01 Ready worker 3d4h v1.23.5
node02 Ready worker 3d4h v1.23.5
执行完成如下图:
5.3、添加calico网络插件
缺少网络插件,在master01节点执行如下命令
[root@master01 ~]# kubectl apply -f calico.yaml
执行成功后,如下图:
5.4、检测dns
[root@master01 ~]# kubectl run busybox --image busybox:1.28 --restart=Never --rm -it busybox -- sh
5.5、检查集群可用性---tomcat服务
将tomcat服务镜像上传至node01-02节点
[root@node01 ~]# docker load -i tomcat.tar.gz
[root@node02 ~]# docker load -i tomcat.tar.gz
在master01节点执行
[root@master01 ~]# kubectl apply -f tomcat.yaml
pod/demo-pod created
[root@master01 ~]# kubectl apply -f tomcat-service.yaml
service/tomcat created
在浏览器访问,特别注意:因为所有节点都部署kube-proxy组件,所以所有节点IP地址+端口30080都是可以访问tomcat这个主页的,也包括VIP
以上是关于kuberneteskubeadm安装多master节点的k8s集群的主要内容,如果未能解决你的问题,请参考以下文章
mha安装报错 [error][/usr/share/perl5/vendor_perl/MHA/MasterMonitor.pm, ln361] None of slaves can be mast