kubeadm ansible快速部署kubernetes生产级高可用集群

Posted k8s运维网

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了kubeadm ansible快速部署kubernetes生产级高可用集群相关的知识,希望对你有一定的参考价值。

背景:


项目特性:

      

  • 项目特性: 不受国内网络限制、所有组件使用 kubelet 托管、多 master 高可用、tls 双向认证、自定义 tls 证书有效期、RBAC 授权、支持 Network Policy

  • 相关支持:

    类别 支持
    Architecture amd64, arm64
    OS Ubuntu 16.04+, Debian 9, CentOS 7.4+, CentOS 8, RedHat 7
    Etcd 3.4.13-0
    Container runtimes Docker, containerd
    Kubernetes v1.13, v1.14, v1.15, v1.16, v1.17, v1.18, v1.19, v1.20
    Kube-apiserver lb slb, haproxy, envoy, openresty, nginx
    Network plugin flannel, calico
    Ingress controller traefik, nginx-ingress

安装须知:

硬件系统要求

  • Master节点:2c2g+

  • Worker节点:2c4g+

软件系统要求

  • 运行以下之一的一台或多台机器:

    • RHEL 7

    • CentOS 7.4+

    • CentOS 8

    • Debian 9

    • Ubuntu 16.04+

  • 各节点时区时间一致

  • 墙裂建议升级内核到4.17+,关于Bug,你可以从以下地方追踪到:

    • https://github.com/fho/docker-samba-loop

    • https://github.com/moby/moby/issues/5618

    • https://github.com/coreos/bugs/issues/254

Kube-apiserver负载模式

本地负载均衡

该负载均衡模式是在节点本地部署一个负载均衡器,节点本地所有需要链接 apiserver 的组件均通过本地负载均衡器进行访问。

  • 优点:兼容所有云;无额外的网络消耗(共用主机 network namespace);不会出现 lb 宕机而整个集群崩溃的情况。

  • 缺点:集群外需要链接 apiserver 无法做到高可用(除非再搭建一套负载均衡);节点本地负载均衡器宕机则该节点无法正常工作;添加或删除 master 节点会涉及所有节点更新负载均衡器配置(当然不更新也是可以的)。

+------------------------+                +------------------------+
| master-A | | master-B |
+------------------------+ +------------------------+
| nginx +-------+--------> apiserver |
+-----^------+------^----+ | +-----------^------------+
| | | | | | | | |
+-----+----+ | +----+----+ | +---------+ | +----------+
|controller| | |scheduler| | |scheduler| | |controller|
+----------+ | +---------+ | +----+----+ | +-----+----+
| | | | | | | | |
+------------v-----------+ | +----v------+-------v----+
| apiserver <-------+--------+ nginx |
+------------------------+ | +------------------------+
|
>----------------------^----------------------<
| | |
+---------+----------+ +---------+----------+ +---------+----------+
| nginx | | nginx | | nginx |
+---^-----------^----+ +---^-----------^----+ +---^-----------^----+
| | | | | | | | | | | |
+---+---+ +-----+----+ +---+---+ +-----+----+ +---+---+ +-----+----+
|kubelet| |kube-proxy| |kubelet| |kube-proxy| |kubelet| |kube-proxy|
+-------+ +----------+ +-------+ +----------+ +-------+ +----------+
| | | | | |
+--------------------+ +--------------------+ +--------------------+
| node-A | | node-B | | node-C |
+--------------------+ +--------------------+ +--------------------+

VIP负载均衡

该负载均衡模式是在集群外搭建一个主备负载,虚拟IP(VIP)飘在这些节点上,当节点挂掉虚拟IP(VIP)会迅速转移到正常工作的节点上,该模式常见的组合即为:HAproxy + keepalived。

  • 优点:集群内外链接 apiserver 均为高可用。

  • 缺点:公有云无法使用;额外的网络消耗;所有node的网络I/O都会高度集中于一台机器上(VIP),一旦集群节点增多,pod增多,单机的网络I/O迟早是网络隐患;lb 宕机整个集群崩溃(当然这种情况很少)。

  +----------------------+                  +----------------------+
| master-A | | master-B |
+----------------------+ +----------------------+
| apiserver <---------+--------> apiserver |
+----------------------+ | +----------------------+
| | | | |
+----------+ +---------+ | +---------+ +----------+
|controller| |scheduler| | |scheduler| |controller|
+----+-----------+-----+ | +------+----------+----+
| | | | |
v------v-----------v >------------^------------< v----------v------v
| | | |
| +-------------------+-------------------------+------------------+ |
| |keepalived| |HAproxy| |HAprox | |keepalived| |
| +----------+ +-------+ +-------+ +----------+ |
| | | VIP | | |
| | LB-A | | LB-B | |
| +-----------------------+--------^--------+----------------------+ |
| | |
>---->----------->---------->------^----<----------<-----------<-----<
| | | | | |
+---+-----------+----+ +---+-----------+----+ +---+-----------+----+
|kubelet| |kube-proxy| |kubelet| |kube-proxy| |kubelet| |kube-proxy|
+-------+ +----------+ +-------+ +----------+ +-------+ +----------+
| | | | | |
+--------------------+ +--------------------+ +--------------------+
| node-A | | node-B | | node-C |
+--------------------+ +--------------------+ +--------------------+

集群安装

节点信息

ip hostname OS kernel version role
192.168.56.11 node1 CentOS 7.8 4.20.13-1 master etcd worker
192.168.56.12 node2 CentOS 7.8 4.20.13-1 master etcd worker
192.168.56.13 node3 CentOS 7.8 4.20.13-1 master etcd worker
192.168.56.14 node4 CentOS 7.8 4.20.13-1 worker

安装 Ansible 运行环境

# 任意节点上安装 Ansible 运行环境
sudo ansible/install.sh

集群规划

  • 搭建集群后有以下两种“样式”显示,请自行选择:

    • 样式一

      NAME            STATUS   ROLES                              AGE     VERSION
      192.168.56.11 Ready control-plane,etcd,master,worker 7m25s v1.20.6
      192.168.56.12 Ready control-plane,etcd,master,worker 5m18s v1.20.6
      192.168.56.13 Ready control-plane,etcd,master,worker 5m18s v1.20.6
      192.168.56.14 Ready worker 4m37s v1.20.6
    • 样式二

      NAME    STATUS   ROLES                              AGE     VERSION
      node1 Ready control-plane,etcd,master,worker 7m25s v1.20.6
      node2 Ready control-plane,etcd,master,worker 5m18s v1.20.6
      node3 Ready control-plane,etcd,master,worker 5m18s v1.20.6
      node4 Ready worker 4m37s v1.20.6
    • 对应的 ansible inventory 配置文件示例如下:

      节点分配 样式一 样式二
      单节点 hosts.allinone.ip hosts.allinone.hostname
      单主多节点 hosts.s-master.ip hosts.s-master.hostname
      多主多节点 hosts.m-master.ip hosts.m-master.hostname

部署集群

  • 可选: 升级内核,默认安装集群是不会升级内核的,若需升级内核,请执行(内核升级完成后请手动重启所有节点):

    ansible-playbook -i example/hosts.m-master.ip.ini 00-kernel.yml
  • 一句命令拥有一个高可用 kubernetes 集群:

    • 基本配置执行

      ansible-playbook -i example/hosts.m-master.ip.ini 90-init-cluster.yml
    • 高级配置执行,注意: 如果安装集群时使用高级配置则以后所有操作都需将 -e @example/variables.yaml 参数添加在 ansible-playbook 命令中

      ansible-playbook -i example/hosts.m-master.ip.ini -e @example/variables.yaml 90-init-cluster.yml
    1. 本项目所有可配置项都在 example/variables.yaml 文件中体现,需自定义配置时删除配置项前注释符即可。

    2. 若 example/hosts.m-master.ip.ini 文件中与 example/variables.yaml 变量值冲突时, example/variables.yaml 文件中的变量值优先级最高。


其他功能请参考:

https://github.com/chinaboy007/kubeadm-ha/tree/master/docs

以上是关于kubeadm ansible快速部署kubernetes生产级高可用集群的主要内容,如果未能解决你的问题,请参考以下文章

kubernetes 概述和kubeadm方式集群搭建

kubernetes 概述和kubeadm方式集群搭建

Docker&K8s---通过kubeadm快速部署K8s

Docker&K8s---通过kubeadm快速部署K8s

使用kubeadm快速部署一个k8s集群(亲测有效)

三台ECS使用kubeadm快速部署最新版本K8sv1.21.3