kubeadm搭建多master节点的K8S高可用集群

部署一套完整的企业级K8s集群

一、准备环境

服务器要求:

• 建议最小硬件配置:4核CPU、4G内存、50G硬盘

• 服务器最好可以访问外网,会有从网上拉取镜像需求,如果服务器不能上网,需要提前下载对应镜像并导入节点

软件环境:

软件 版本

操作系统 CentOS7.8_x64

Docker 19+

Kubernetes 1.20

服务器整体规划:

角色 IP 其他单装组件

k8s-master1 192.168.172.40 docker,etcd,nginx,keepalived

k8s-master2 192.168.172.41 docker,etcd,nginx,keepalived

k8s-master3 192.168.172.42 docker,etcd,nginx,keepalived

k8s-node1 192.168.172.43 docker

负载均衡器对外IP 192.168.172.199 (VIP)  

架构图:

操作系统初始化配置:

# 关闭防火墙

systemctl stop firewalld

systemctl disable firewalld

# 关闭selinux

sed -i 's/enforcing/disabled/' /etc/selinux/config  # 永久

setenforce 0  # 临时

# 关闭swap

swapoff -a  # 临时

sed -ri 's/.*swap.*/#&/' /etc/fstab    # 永久

# 根据规划设置主机名

hostnamectl set-hostname <hostname>

# 在master添加hosts

cat >> /etc/hosts << EOF

192.168.172.40 k8s-master1

192.168.172.41 k8s-master2

192.168.172.42 k8s-master3

192.168.172.43 k8s-node1

EOF

# 将桥接的IPv4流量传递到iptables的链

cat > /etc/sysctl.d/k8s.conf << EOF

net.bridge.bridge-nf-call-ip6tables = 1

net.bridge.bridge-nf-call-iptables = 1

EOF

sysctl --system  # 生效

# 时间同步

yum install ntpdate -y

ntpdate time.windows.com

二、部署Nginx+Keepalived高可用负载均衡器

2.1安装软件包(主/备)

yum install epel-release -y

yum install nginx keepalived -y

2.2 Nginx配置文件(主/备一样)

user nginx;

worker_processes auto;

error_log /var/log/nginx/error.log;

pid /run/nginx.pid;

include /usr/share/nginx/modules/*.conf;

events {

    worker_connections 1024;

}

# 四层负载均衡,为两台Master apiserver组件提供负载均衡

stream {

    log_format  main  '$remote_addr $upstream_addr - [$time_local] $status $upstream_bytes_sent';

    access_log  /var/log/nginx/k8s-access.log  main;

    upstream k8s-apiserver {

      server 192.168.172.40:6443;  # Master1 APISERVER IP:PORT

      server 192.168.172.41:6443;  # Master2 APISERVER IP:PORT

    }


    server {

      listen 16443; # 由于nginx与master节点复用,这个监听端口不能是6443,否则会冲突

      proxy_pass k8s-apiserver;

    }

}

http {

    log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '

                      '$status $body_bytes_sent "$http_referer" '

                      '"$http_user_agent" "$http_x_forwarded_for"';

    access_log  /var/log/nginx/access.log  main;

    sendfile            on;

    tcp_nopush          on;

    tcp_nodelay        on;

    keepalive_timeout  65;

    types_hash_max_size 2048;

    include            /etc/nginx/mime.types;

    default_type        application/octet-stream;

    server {

        listen      80 default_server;

        server_name  _;

        location / {


        }

    }

}


2.3 keepalived配置文件(Nginx Master)

vi /etc/keepalived/keepalived.conf

global_defs {

  notification_email {

    acassen@firewall.loc

    failover@firewall.loc

    sysadmin@firewall.loc

  }

  notification_email_from Alexandre.Cassen@firewall.loc 

  smtp_server 127.0.0.1

  smtp_connect_timeout 30

  router_id NGINX_MASTER

}

vrrp_script check_nginx {

    script "/etc/keepalived/check_nginx.sh"

}

vrrp_instance VI_1 {

    state MASTER

    interface ens33  # 修改为实际网卡名

    virtual_router_id 51 # VRRP 路由 ID实例,每个实例是唯一的

    priority 100    # 优先级,备服务器设置 90

    advert_int 1    # 指定VRRP 心跳包通告间隔时间,默认1秒

    authentication {

        auth_type PASS     

        auth_pass 1111

    } 

    # 虚拟IP

    virtual_ipaddress {

        192.168.172.199/24

    }

    track_script {

        check_nginx

    }

}

准备上述配置文件中检查nginx运行状态的脚本:

cat > /etc/keepalived/check_nginx.sh  << "EOF"

#!/bin/bash

count=$(ss -antp |grep 16443 |egrep -cv "grep|$$")

if [ "$count" -eq 0 ];then

   exit 1

else

   exit 0

fi

EOF

赋权限:

chmod +x /etc/keepalived/check_nginx.sh

准备上述配置文件中检查nginx运行状态的脚本:

cat > /etc/keepalived/check_nginx.sh  << "EOF"

cat > /etc/keepalived/check_nginx.sh << "EOF"

#!/bin/bash

count=$(ss -antp |grep 16443 |egrep -cv "grep|$$")

if [ "$count" -eq 0 ];then

   exit 1

else

   exit 0

fi

EOF

chmod +x /etc/keepalived/check_nginx.sh

systemctl daemon-reload

systemctl start nginx ; systemctl enable nginx

systemctl status nginx

systemctl start keepalived ; systemctl enable keepalived

systemctl status keepalived


ip addr 查看一下vip地址

每台导入离线的docker 镜像
docker load -i k8s-images-v1.20.4.tar.gz

gzip -dc k8s-images-v1.20.4.tar.gz  |ssh root@主机名'cat | docker load'

第一台master创建kubeadm-config.yaml

apiVersion: kubeadm.k8s.io/v1beta2

kind: ClusterConfiguration

kubernetesVersion: v1.20.4

controlPlaneEndpoint: 192.168.172.199:16443

imageRepository: registry.aliyuncs.com/google_containers

apiServer:

certSANs:

- 192.168.172.140

- 192.168.172.141

- 192.168.172.142

- 192.168.172.143

- 192.168.172.199

networking:

  podSubnet: 10.244.0.0/16

  serviceSubnet: 10.10.0.0/16

---

apiVersion: kubeproxy.config.k8s.io/v1alpha1

kind: KubeProxyConfiguration

mode: ipvs


使用kubeadm初始化k8s集群

 kubeadm init --config kubeadm-config.yaml

注:--image-repository registry.aliyuncs.com/google_containers为保证拉取镜像不到国外站点拉取,手动指定仓库地址为registry.aliyuncs.com/google_containers。kubeadm默认从k8ss.grc.io拉取镜像。

出现 下面两段,有--control-plane到主节点敲,另外个是工作节点

kubeadm join 192.168.172.199:16443 --token 4thpb5.jbwmftjg9rmxkbw3 \

    --discovery-token-ca-cert-hash sha256:85cf38fda29840a592102e676f9b491895b22e458de404f0401f3da58fc44eeb \

    --control-plane

Then you can join any number of worker nodes by running the following on each as root:

kubeadm join 192.168.172.199:16443 --token 4thpb5.jbwmftjg9rmxkbw3 \

    --discovery-token-ca-cert-hash sha256:85cf38fda29840a592102e676f9b491895b22e458de404f0401f3da58fc44eeb

配置kubectl的配置文件,保存一个证书,这样kubectl命令可以使用这个证书对k8s集群进行管理

mkdir -p $HOME/.kube

sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config

sudo chown $(id -u):$(id -g) $HOME/.kube/config

查看节点是否正常,这时候只有一台

kubectl get nodes

NAME      STATUS    ROLES                  AGE  VERSION

主机名     NotReady  control-plane,master  60s  v1.20.4

此时集群状态还是NotReady状态,因为网络组件没有启动。

#把第一台master节点的证书拷贝到其他两台上

cd /root && mkdir -p /etc/kubernetes/pki/etcd &&mkdir -p ~/.kube/

 scp /etc/kubernetes/pki/ca.crt 主机名:/etc/kubernetes/pki/

scp /etc/kubernetes/pki/ca.key 主机名:/etc/kubernetes/pki/

scp /etc/kubernetes/pki/sa.key 主机名:/etc/kubernetes/pki/

scp /etc/kubernetes/pki/sa.pub 主机名:/etc/kubernetes/pki/

scp /etc/kubernetes/pki/front-proxy-ca.crt 主机名:/etc/kubernetes/pki/

scp /etc/kubernetes/pki/front-proxy-ca.key 主机名:/etc/kubernetes/pki/

scp /etc/kubernetes/pki/etcd/ca.crt 主机名:/etc/kubernetes/pki/etcd/

scp /etc/kubernetes/pki/etcd/ca.key 主机名:/etc/kubernetes/pki/etcd/

证书拷贝后,master上执行如下命令,每个人不一样

kubeadm join 192.168.172.199:16443 --token 4thpb5.jbwmftjg9rmxkbw3 \

    --discovery-token-ca-cert-hash sha256:85cf38fda29840a592102e676f9b491895b22e458de404f0401f3da58fc44eeb \

    --control-plane


node节点执行

kubeadm join 192.168.172.199:16443 --token 4thpb5.jbwmftjg9rmxkbw3 \

    --discovery-token-ca-cert-hash sha256:85cf38fda29840a592102e676f9b491895b22e458de404f0401f3da58fc44eeb

查看集群情况  kubectl get nodes

NAME      STATUS    ROLES                  AGE  VERSION

master1   NotReady  control-plane,master  19m     v1.20.4

master2   NotReady  control-plane,master  6m22s  v1.20.4

master3   NotReady  control-plane,master  2m29s  v1.20.4

node1       NotReady          78s    v1.20.4

上面状态都是notready状态,说明没有安装网络插件

Calico简介

Calico 是一种容器之间互通的网络方案。在虚拟化平台中,比如OpenStack、Docker 等都需要实现主机之间互连,但同时也需要对容器做隔离控制。而在多数的虚拟化平台实现中,通常都使用二层隔离技术来实现容器的网络,这些二层的技术有一些弊端,比如需要依赖VLAN、bridge 和隧道等技术,其中bridge 带来了复杂性,vlan 隔离和tunnel 隧道在拆包或加包头时,则消耗更多的资源并对物理环境也有要求。随着网络规模的增大,整体会变得越加复杂。

Calico把Host 当作Internet 中的路由器,使用BGP 同步路由,并使用iptables 来做安全访问策略。

设计思想:Calico 不使用隧道或NAT 来实现转发,而是巧妙的把所有二三层流量转换成三层流量,并通过host 上路由配置完成跨Host 转发

常见的网络插件对比分析

flannel:支持地址分配,不支持网络策略。

calico:支持地址分配,支持网络策略。

flannel:

支持多种后端:

VxLAN:

(1) vxlan 叠加网络模式

(2) Directrouting 

host-gw: Host Gateway 直接路由模式

UDP:一般不用这个模式

安装Calico网络组件

kubectl apply -f calico.yaml

注:在线下载配置文件地址是:https://docs.projectcalico.org/manifests/calico.yaml

拉取镜像需要一定时间,所以我们查看pod状态为running则安装成功。

kubectl get pod --all-namespaces

最后看一下集群状态
kubectl get nodes

NAME      STATUS  ROLES                  AGE  VERSION

master1   Ready    control-plane,master  22h  v1.20.4

master2  Ready    control-plane,master  22h  v1.20.4

master3   Ready    control-plane,master  22h  v1.20.4

node1      Ready    <none>                22h  v1.20.4



测试在k8s创建pod是否可以正常访问网络 

kubectl run busybox --image busybox:1.28 --restart=Never --rm -it busybox -- sh

If you don't see a command prompt, try pressing enter.

/ # ping www.qq.com

PING www.qq.com (183.194.238.19): 56 data bytes

64 bytes from 183.194.238.19: seq=0 ttl=127 time=11.423 ms

64 bytes from 183.194.238.19: seq=1 ttl=127 time=11.267 ms

^C

ping www.qq.com 能正常访问即成功

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,294评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,493评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,790评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,595评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,718评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,906评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,053评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,797评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,250评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,570评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,711评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,388评论 4 332
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,018评论 3 316
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,796评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,023评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,461评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,595评论 2 350

推荐阅读更多精彩内容