# 安装Kubernetes高可用

TIP

推荐初学者按照 安装Kubernetes 单Master节点 文档进行 Kubernetes 集群搭建

# 介绍

kubernetes 安装有多种选择,本文档描述的集群安装具备如下特点:

  • Kubernetes 1.15.3
    • calico 3.8.2
    • nginx-ingress 1.5.3
  • Docker 18.09.7
  • 三个 master 组成主节点集群,通过内网 loader balancer 实现负载均衡;至少需要三个 master 节点才可组成高可用集群,否则会出现 脑裂 现象
  • 多个 worker 组成工作节点集群,通过外网 loader balancer 实现负载均衡

安装后的拓扑图如下:下载拓扑图源文件 使用Axure RP 9.0可打开该文件

Kubernetes安装:拓扑结构

  • 在线答疑

    kuboard for kubernetes (k8s) 也可以扫描二维码加群

    Kubernetes教程:QQ群在线答疑

# 检查 centos / hostname

# 在 master 节点和 worker 节点都要执行
cat /etc/redhat-release

# 此处 hostname 的输出将会是该机器在 Kubernetes 集群中的节点名字
hostname
1
2
3
4
5

操作系统兼容性

CentOS 版本 本文档是否兼容 备注
7.7 😄 已验证
7.6 😄 已验证
7.5 😄 已验证
7.4 🤔 待验证
7.3 🤔 待验证
7.2 😞 已证实会出现 kubelet 无法启动的问题

修改 hostname

如果您需要修改 hostname,可执行如下指令:

# 修改 hostname
hostnamectl set-hostname your-new-host-name
# 查看修改结果
hostnamectl status
1
2
3
4

# 安装 docker / kubelet

使用 root 身份在所有节点执行如下代码,以安装软件:

  • docker
  • nfs-utils
  • kubectl / kubeadm / kubelet
# 在 master 节点和 worker 节点都要执行

curl -sSL https://kuboard.cn/install-script/v1.15.3/install-kubelet.sh | sh

1
2
3
4

# 初始化API Server

# 创建 ApiServer 的 Load Balancer(私网)

监听端口:6443 / TCP

后端资源组:包含 demo-master-a-1, demo-master-b-1, demo-master-b-2

后端端口:6443

开启 按源地址保持会话

假设完成创建以后,Load Balancer的 ip 地址为 x.x.x.x

# 初始化第一个master节点

TIP

  • 以 root 身份在 demo-master-a-1 机器上执行
  • 初始化 master 节点时,如果因为中间某些步骤的配置出错,想要重新初始化 master 节点,请先执行 kubeadm reset 操作

关于初始化时用到的环境变量

  • APISERVER_NAME 不能是 master 的 hostname
  • APISERVER_NAME 必须全为小写字母、数字、小数点,不能包含减号
  • POD_SUBNET 所使用的网段不能与 master节点/worker节点 所在的网段重叠。该字段的取值为一个 CIDR 值,如果您对 CIDR 这个概念还不熟悉,请不要修改这个字段的取值 10.100.0.1/16

在第一个 master 节点 demo-master-a-1 上执行

# 只在 master 节点执行
# 替换 apiserver.demo 为 您想要的 dnsName
export APISERVER_NAME=apiserver.demo
# Kubernetes 容器组所在的网段,该网段安装完成后,由 kubernetes 创建,事先并不存在于您的物理网络中
export POD_SUBNET=10.100.0.1/16
echo "127.0.0.1    ${APISERVER_NAME}" >> /etc/hosts
curl -sSL https://kuboard.cn/install-script/v1.15.3/init-master.sh | sh
1
2
3
4
5
6
7

执行结果

执行结果中:

  • 第15、16、17行,用于初始化第二、三个 master 节点
  • 第25、26行,用于初始化 worker 节点














 
 
 







 
 


Your Kubernetes control-plane has initialized successfully!

To start using your cluster, you need to run the following as a regular user:

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/

You can now join any number of the control-plane node running the following command on each as root:

  kubeadm join apiserver.k8s:6443 --token 4z3r2v.2p43g28ons3b475v \
    --discovery-token-ca-cert-hash sha256:959569cbaaf0cf3fad744f8bd8b798ea9e11eb1e568c15825355879cf4cdc5d6 \
    --control-plane --certificate-key 41a741533a038a936759aff43b5680f0e8c41375614a873ea49fde8944614dd6

Please note that the certificate-key gives access to cluster sensitive data, keep it secret!
As a safeguard, uploaded-certs will be deleted in two hours; If necessary, you can use 
"kubeadm init phase upload-certs --upload-certs" to reload certs afterward.

Then you can join any number of worker nodes by running the following on each as root:

kubeadm join apiserver.k8s:6443 --token 4z3r2v.2p43g28ons3b475v \
    --discovery-token-ca-cert-hash sha256:959569cbaaf0cf3fad744f8bd8b798ea9e11eb1e568c15825355879cf4cdc5d6 

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27

检查 master 初始化结果

# 只在第一个 master 节点执行

# 执行如下命令,等待 3-10 分钟,直到所有的容器组处于 Running 状态
watch kubectl get pod -n kube-system -o wide

# 查看 master 节点初始化结果
kubectl get nodes
1
2
3
4
5
6
7

# 初始化第二、三个master节点

获得 master 节点的 join 命令

初始化第一个 master 节点时的输出内容中,第15、16、17行就是用来初始化第二、三个 master 节点的命令,如下所示:此时请不要执行该命令

  kubeadm join apiserver.k8s:6443 --token 4z3r2v.2p43g28ons3b475v \
    --discovery-token-ca-cert-hash sha256:959569cbaaf0cf3fad744f8bd8b798ea9e11eb1e568c15825355879cf4cdc5d6 \
    --control-plane --certificate-key 41a741533a038a936759aff43b5680f0e8c41375614a873ea49fde8944614dd6
1
2
3

初始化第二、三个 master 节点

在 demo-master-b-1 和 demo-master-b-2 机器上执行

# 只在第二、三个 master 节点 demo-master-b-1 和 demo-master-b-2 执行
# 替换 x.x.x.x 为 ApiServer LoadBalancer 的 IP 地址
export APISERVER_IP=x.x.x.x
# 替换 apiserver.demo 为 前面已经使用的 dnsName
export APISERVER_NAME=apiserver.demo
echo "${APISERVER_IP}    ${APISERVER_NAME}" >> /etc/hosts
# 使用前面步骤中获得的第二、三个 master 节点的 join 命令
kubeadm join apiserver.demo:6443 --token ejwx62.vqwog6il5p83uk7y \
--discovery-token-ca-cert-hash sha256:6f7a8e40a810323672de5eee6f4d19aa2dbdb38411845a1bf5dd63485c43d303 \
--control-plane --certificate-key 70eb87e62f052d2d5de759969d5b42f372d0ad798f98df38f7fe73efdf63a13c
1
2
3
4
5
6
7
8
9
10

检查 master 初始化结果

# 只在第一个 master 节点 demo-master-a-1 执行
# 查看 master 节点初始化结果
kubectl get nodes
1
2
3

# 初始化 worker节点

# 获得 join命令参数

初始化第一个 master 节点时的输出内容中,第25、26行就是用来初始化 worker 节点的命令,如下所示:此时请不要执行该命令

  kubeadm join apiserver.k8s:6443 --token 4z3r2v.2p43g28ons3b475v \
    --discovery-token-ca-cert-hash sha256:959569cbaaf0cf3fad744f8bd8b798ea9e11eb1e568c15825355879cf4cdc5d6
1
2

# 初始化worker

针对所有的 worker 节点执行

# 只在 worker 节点执行
# 替换 ${APISERVER_IP} 为 ApiServer LoadBalancer 的 IP 地址
# 替换 ${APISERVER_NAME} 为 前面已经使用的 dnsName
echo "${APISERVER_IP}    ${APISERVER_NAME}" >> /etc/hosts

# 替换为前面 kubeadm token create --print-join-command 的输出结果
kubeadm join apiserver.demo:6443 --token mpfjma.4vjjg8flqihor4vt     --discovery-token-ca-cert-hash sha256:6f7a8e40a810323672de5eee6f4d19aa2dbdb38411845a1bf5dd63485c43d303
1
2
3
4
5
6
7

# 检查 worker 初始化结果

在第一个master节点 demo-master-a-1 上执行

# 只在第一个 master 节点 demo-master-a-1 上执行
kubectl get nodes
1
2

# 移除 worker 节点

WARNING

正常情况下,您无需移除 worker 节点

在准备移除的 worker 节点上执行

kubeadm reset
1

在第一个 master 节点 demo-master-a-1 上执行

kubectl delete node demo-worker-x-x
1
  • 将 demo-worker-x-x 替换为要移除的 worker 节点的名字
  • worker 节点的名字可以通过在第一个 master 节点 demo-master-a-1 上执行 kubectl get nodes 命令获得

# 安装 Ingress Controller

Ingress官方文档:https://kubernetes.io/docs/concepts/services-networking/ingress/

Ingress Controllers介绍:https://kubernetes.io/docs/concepts/services-networking/ingress-controllers/

本文中使用如下部署方式:https://kubernetes.github.io/ingress-nginx/deploy/baremetal/#using-a-self-provisioned-edge

kubernetes支持多种Ingress Controllers (traefic / Kong / Istio / Nginx 等),本文推荐使用 https://github.com/nginxinc/kubernetes-ingress

在 master 节点上执行

# 只在第一个 master 节点 demo-master-a-1 上执行
kubectl apply -f https://kuboard.cn/install-script/v1.15.3/nginx-ingress.yaml
1
2

WARNING

如果您打算将 Kubernetes 用于生产环境,请参考此文档 Installing Ingress Controller (opens new window),完善 Ingress 的配置

# 在 IaaS 层完成如下配置(公网Load Balancer

创建负载均衡 Load Balancer:

  • 监听器 1:80 / TCP, SOURCE_ADDRESS 会话保持
  • 服务器资源池 1: demo-worker-x-x 的所有节点的 80端口
  • 监听器 2:443 / TCP, SOURCE_ADDRESS 会话保持
  • 服务器资源池 2: demo-worker-x-x 的所有节点的443端口

假设刚创建的负载均衡 Load Balancer 的 IP 地址为: z.z.z.z

# 配置域名解析

将域名 *.demo.yourdomain.com 解析到地址负载均衡服务器 的 IP 地址 z.z.z.z

# 验证配置

在浏览器访问 a.demo.yourdomain.com,将得到 404 NotFound 错误页面

# 下一步

🎉 🎉 🎉

您已经完成了 Kubernetes 集群的安装,下一步请:

安装 Kuboard

安装 Kuboard 之前先

在线体验 Kuboard

更新时间: 2021-05-28 23:01:23