Kind 部署 Karmada 多集群管理

Posted LanYuLei

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Kind 部署 Karmada 多集群管理相关的知识,希望对你有一定的参考价值。

什么是 Karmada ?

Karmada 是 CNCF 的云原生项目,主要的能力是纳管多个 Kubernetes 集群,以及基于原生的 Kubernetes 的资源对象,将其下发到多个集群。对于一些有计算资源需求的 Deployment,Job 等 workload 具体副本数调度能力,让不同的 workload 按照一些的策略运行在不同的集群上。以此来达到多云分发的能力的这么一个项目。

Karmada 和 Kubernetes 的关系:首先 Karmada 本身需要运行在 Kubernetes 集群中,这样的 Kubernetes 集群,我们称作为 Host Cluster (宿主集群),主要是用来运行 Karmada 控制平面的组件,其中包含 Karmada 的 etcd,karmada-api server, karmada-controller manager, Kubernetes controller manager,karmada-scheduler,karmada-webhook, karmada-scheduler-estimator 等控制面的组件。还有一种集群是负责真正运行工作负载的集群,对于这种集群,我们称之为 Workload Cluster。在 Workload Cluster 集群中,会真正运行业务的容器、一些 Kubernetes 的资源对象、存储、网络、dns 等,同时对于 pull 模式的部署方式,还会运行 Karmada 的 agent 组件,用于和控制面组件通信,完成工作负载的下发能力。

安装部署

Kind 创建集群

本次实验环境使用 Kind 创建集群,因此需要提前安装好 Kind。请自行搜索安装。

我们直接使用 Karmada 为我们提供的脚本部署集群。

Kind配置文件

kind: Cluster
apiVersion: kind.x-k8s.io/v1alpha4
networking:
  apiServerAddress: "10.115.92.94"
  apiServerPort: 6443
  kubeProxyMode: "ipvs"
nodes:
- role: worker
  extraPortMappings:
  - containerPort: 32443
    hostPort: 5443
    listenAddress: "0.0.0.0"
    protocol: tcp
- role: control-plane

若需执行上面的 kind 配置文件,按照下面步骤进行修改。

# 1. vim 打开创建集群的脚本
vim hack/create-cluster.sh

# 2. 搜索 kind create cluster ,找到对应行,修改 --config 参数为你保存的配置文件地址即可。

开始部署。

# 下载 karmada 代码
git clone https://github.com/karmada-io/karmada.git

# 进入 karmada 中
cd karmada

# 执行创建集群的脚本
hack/create-cluster.sh host $HOME/.kube/host.config
# host 集群名称
# $HOME/.kube/host.config 配置文件位置

部署 Karmada

安装 Karmada 1.1.0,根据实际情况替换对应的版本号。

kubectl karmada init \\
    --crds https://github.com/karmada-io/karmada/releases/download/v1.1.0/crds.tar.gz \\
    --cert-external-ip=10.115.92.94 \\
    --kubeconfig=$HOME/.kube/host.config \\
    --etcd-image=registry.cn-hangzhou.aliyuncs.com/google_containers/etcd:3.4.13-0 \\
    --karmada-apiserver-image=registry.cn-hangzhou.aliyuncs.com/google_containers/kube-apiserver:v1.21.7 \\
    --karmada-kube-controller-manager-image=registry.cn-hangzhou.aliyuncs.com/google_containers/kube-controller-manager:v1.21.7
  • –crds:指定crds压缩包,也可以直接下载下来换成本地路径。
  • —cert-external-ip:需要外部访问的时候,将本机IP地址加入证书中,允许可访问。
  • –kubeconfig:集群的连接文件。
  • –etcd-image:指定 etcd 镜像地址,默认是 k8s.gcr.io 地址的镜像,国内访问异常。
  • –karmada-apiserver-image:指定 Kubernetes apiserver 镜像地址,默认是 k8s.gcr.io 地址的镜像,国内访问异常。
  • –karmada-kube-controller-manager-image:指定 Kubernetes controller manager 镜像地址,默认是 k8s.gcr.io 地址的镜像,国内访问异常。

看到以下内容表示你已经成功的将 karmada 部署到了,你刚创建 K8S 集群上。

I0324 07:01:19.715559  124376 check.go:49] pod: karmada-aggregated-apiserver-77bf74f4d6-wb46z is ready. status: Running

------------------------------------------------------------------------------------------------------
 █████   ████   █████████   ███████████   ██████   ██████   █████████   ██████████     █████████
░░███   ███░   ███░░░░░███ ░░███░░░░░███ ░░██████ ██████   ███░░░░░███ ░░███░░░░███   ███░░░░░███
 ░███  ███    ░███    ░███  ░███    ░███  ░███░█████░███  ░███    ░███  ░███   ░░███ ░███    ░███
 ░███████     ░███████████  ░██████████   ░███░░███ ░███  ░███████████  ░███    ░███ ░███████████
 ░███░░███    ░███░░░░░███  ░███░░░░░███  ░███ ░░░  ░███  ░███░░░░░███  ░███    ░███ ░███░░░░░███
 ░███ ░░███   ░███    ░███  ░███    ░███  ░███      ░███  ░███    ░███  ░███    ███  ░███    ░███
 █████ ░░████ █████   █████ █████   █████ █████     █████ █████   █████ ██████████   █████   █████
░░░░░   ░░░░ ░░░░░   ░░░░░ ░░░░░   ░░░░░ ░░░░░     ░░░░░ ░░░░░   ░░░░░ ░░░░░░░░░░   ░░░░░   ░░░░░
------------------------------------------------------------------------------------------------------
Karmada is installed successfully.

kubectl master 命令别名

karmada 部署完成后,你直接执行 kubectl get cluster 发现没有找到对应 crd 资源,那是因为 karmada apiserver 的配置文件没有找对。

因此我们来配置一个命令别名方便我们后续使用。

alias kmc="kubectl --kubeconfig=/etc/karmada/karmada-apiserver.config"
# --kubeconfig:Karmada apiserver 默认的配置文件路径,若有变动,请修改。

下面我们就可以使用这个命令来查询 Karmada 对应的 crd 列表了。

[root@karmada karmada]# kmc get crds
NAME                                                         CREATED AT
clusteroverridepolicies.policy.karmada.io                    2022-03-23T22:59:58Z
clusterpropagationpolicies.policy.karmada.io                 2022-03-23T22:59:58Z
clusterresourcebindings.work.karmada.io                      2022-03-23T22:59:58Z
federatedresourcequotas.policy.karmada.io                    2022-03-23T22:59:58Z
multiclusteringresses.networking.karmada.io                  2022-03-23T22:59:58Z
overridepolicies.policy.karmada.io                           2022-03-23T22:59:58Z
propagationpolicies.policy.karmada.io                        2022-03-23T22:59:58Z
resourcebindings.work.karmada.io                             2022-03-23T22:59:58Z
resourceinterpreterwebhookconfigurations.config.karmada.io   2022-03-23T22:59:58Z
serviceexports.multicluster.x-k8s.io                         2022-03-23T22:59:58Z
serviceimports.multicluster.x-k8s.io                         2022-03-23T22:59:58Z
works.work.karmada.io                                        2022-03-23T22:59:59Z

现有集群加入到 Karmada

karmadactl 命令,我没有找到现成的二进制文件,通过源码自行编译了一个。

在源码项目根路径下执行一下命令即可。

make karmadactl

执行下面命令将集群加入到 Karmada 中。

karmadactl join karmada-member1 --kubeconfig=/etc/karmada/karmada-apiserver.config --cluster-kubeconfig=/root/.kube/host.config --cluster-context=kind-karmada-member1
  • –kubeconfig:Karmada apiserver 配置文件。
  • –cluster-kubeconfig:需要注册到 Karmada 中的集群。
  • –cluster-context:若是配置文件中有多个集群信息,则需要指定 context 名称。

输出下面结果,则表示集群已经顺利加入了。

[root@karmada karmada]# kmc get cluster
NAME              VERSION   MODE   READY   AGE
karmada-member1   v1.23.4   Push   True    3h46m

以上是关于Kind 部署 Karmada 多集群管理的主要内容,如果未能解决你的问题,请参考以下文章

使用Karmada实现Helm应用的跨集群部署

k8s多集群分发方案karmada解析

Karmada跨集群优雅故障迁移特性解析

61 k8s + rancher + karmada容器化部署

Karmada大规模测试报告发布:突破100倍集群规模

Karmada 有趣的玩法:多集群监控