kubeadm高可用kubernetes部署

kubeadm1.19高可用kubernetes部署

预准备

  1. 3台2核2G服务器(虚拟机),电脑性能好推荐虚拟机省不少钱

  2. 前置的配置,源,docker安装等请参考之前的博客 -> 安装教程

  3. 配置好后不要执行kubeadm init 就可回到这篇文章继续看

开始安装

1.Etcd集群安装

etcd是一个高可用的分布式键值(key-value)数据库,kubernetes将服务和数据信息保存在etcd中,如果etcd挂掉集群不可用,数据如果丢失集群将变为初始状态,所以etcd的高可用必须要保证,这里将使用外置etcd集群,不在使用kubeadm初始化时自动生成的容器化的单机etcd


首先选择一个服务器,用来生成etcd所需要的加密证书,这里使用cfssl方式,可以以json的格式生成,不需要写一长串命令


# 安装并配置环境变量

yum install wget -y

wget https://pkg.cfssl.org/R1.2/cfssl_linux-amd64

wget https://pkg.cfssl.org/R1.2/cfssljson_linux-amd64

wget https://pkg.cfssl.org/R1.2/cfssl-certinfo_linux-amd64

chmod +x cfssl_linux-amd64

mv cfssl_linux-amd64 /usr/local/bin/cfssl

chmod +x cfssljson_linux-amd64

mv cfssljson_linux-amd64 /usr/local/bin/cfssljson

chmod +x cfssl-certinfo_linux-amd64

mv cfssl-certinfo_linux-amd64 /usr/local/bin/cfssl-certinfo

export PATH=/usr/local/bin:$PATH

生成证书的json文件


mkdir /root/ssl

cd /root/ssl

cat >  ca-config.json <<EOF

{

"signing": {

"default": {

  "expiry": "8760h"

},

"profiles": {

  "kubernetes-Soulmate": {

    "usages": [

        "signing",

        "key encipherment",

        "server auth",

        "client auth"

    ],

    "expiry": "8760h"

  }

}

}

}

EOF


cat >  ca-csr.json <<EOF

{

"CN": "kubernetes-Soulmate",

"key": {

"algo": "rsa",

"size": 2048

},

"names": [

{

  "C": "CN",

  "ST": "shanghai",

  "L": "shanghai",

  "O": "k8s",

  "OU": "System"

}

]

}

EOF

cfssl gencert -initca ca-csr.json | cfssljson -bare ca


#hosts需要填所有的节点ip

cat > etcd-csr.json <<EOF

{

  "CN": "etcd",

  "hosts": [

    "127.0.0.1",

    "172.16.3.130",

    "172.16.3.131",

    "172.16.3.132"

  ],

  "key": {

    "algo": "rsa",

    "size": 2048

  },

  "names": [

    {

      "C": "CN",

      "ST": "shanghai",

      "L": "shanghai",

      "O": "k8s",

      "OU": "System"

    }

  ]

}

EOF

#签名

cfssl gencert -ca=ca.pem \

  -ca-key=ca-key.pem \

  -config=ca-config.json \

  -profile=kubernetes-Soulmate etcd-csr.json | cfssljson -bare etcd

接下来我们需要将证书分发到每一个需要安装etcd的服务上,由于我是在130服务器上生成的证书所以只需要将证书发送给另外两台服务器即可


mkdir -p /etc/etcd/ssl

cp /root/ssl/etcd.pem /root/ssl/etcd-key.pem /root/ssl/ca.pem /etc/etcd/ssl/

scp -r /etc/etcd/ 172.16.3.131:/etc/

scp -r /etc/etcd/ 172.16.3.132:/etc/

接下来在每台需要安装etcd服务的节点上安装etcd服务


yum install etcd -y 

# 创建数据保存目录,备份点

mkdir -p /var/lib/etcd

然后配置etcd的配置文件,将其修改为集群模式,需要注意的几个点

  1. 需要修改--name

  2. 需要将ip修改为对应服务器的ip

  3. 如果出现request sent was ignored (cluster ID mismatch: peer[f73f6335fab3c75e]=903824bb6a071282问题,可以将--initial-cluster-state修改为existing

  4. --initial-cluster 后面的名字一定要和--name对应上

  5. --data-dir 要提前创建好


cat <<EOF >/usr/lib/systemd/system/etcd.service

[Unit]

Description=Etcd Server

After=network.target

After=network-online.target

Wants=network-online.target

Documentation=https://github.com/coreos

[Service]

Type=notify

WorkingDirectory=/var/lib/etcd/

ExecStart=/usr/bin/etcd \

  --name k8s01 \

  --cert-file=/etc/etcd/ssl/etcd.pem \

  --key-file=/etc/etcd/ssl/etcd-key.pem \

  --peer-cert-file=/etc/etcd/ssl/etcd.pem \

  --peer-key-file=/etc/etcd/ssl/etcd-key.pem \

  --trusted-ca-file=/etc/etcd/ssl/ca.pem \

  --peer-trusted-ca-file=/etc/etcd/ssl/ca.pem \

  --initial-advertise-peer-urls https://172.16.3.130:2380 \

  --listen-peer-urls https://172.16.3.130:2380 \

  --listen-client-urls https://172.16.3.130:2379,http://127.0.0.1:2379 \

  --advertise-client-urls https://172.16.3.130:2379 \

  --initial-cluster-token etcd-cluster-0 \

  --initial-cluster k8s01=https://172.16.3.130:2380,k8s02=https://172.16.3.131:2380,k8s03=https://172.16.3.132:2380 --initial-cluster-state new \

  --data-dir=/var/lib/etcd

Restart=on-failure

RestartSec=5

LimitNOFILE=65536

[Install]

WantedBy=multi-user.target

EOF

每台etcd都配置完成后,启动,如果出现异常请检查配置文件


systemctl daemon-reload

systemctl enable etcd

systemctl start etcd

systemctl status etcd

找一台安装了etcd服务的机器来查看集群状态


#配置3.0的api 否则有些命令没有

echo "export ETCDCTL_API=3" >>/etc/profile  && source /etc/profile

#修改为自己的ip

etcdctl --endpoints=https://172.16.3.130:2379,https://172.16.3.131:2379,https://172.16.3.132:2379 --cacert=/etc/etcd/ssl/ca.pem  --cert=/etc/etcd/ssl/etcd.pem  --key=/etc/etcd/ssl/etcd-key.pem  endpoint health

如果如下图全部successfully就是成功了,如果有一个失败的请检查systemctl status etcd,查看错误信息,如果没有特殊情况就是配置文件出错了

在这里插入图片描述

2.安装keepalived

这里我模拟2台master节点,1个node节点,两个master节点通过keepalived漂移ip保活,以下配置需要在两台master节点都修改


#启动kubelet

systemctl daemon-reload

systemctl enable kubelet

安装keepalived


yum install -y keepalived

systemctl enable keepalived


cat <<EOF > /etc/keepalived/keepalived.conf

global_defs {

  router_id LVS_k8s

}

#心跳脚本

vrrp_script CheckK8sMaster {

    script "curl -k https://172.16.3.110:6443"  # 虚ip

    interval 3

    timeout 9

    fall 2

    rise 2

}

vrrp_instance VI_1 {

    state MASTER

    interface ens33      #云服务器一般eth0,虚拟机需要自己ifconfig查看下

    virtual_router_id 61

    priority 120         

    advert_int 1

    mcast_src_ip 172.16.3.130  #写当前服务器的ip

    nopreempt

    authentication {

        auth_type PASS

        auth_pass sqP05dQgMSlzrxHj

    }

    unicast_peer {

        172.16.3.131    #另外一台masterIP,例如在131服务器上这里需要写130,也就是除了mcast_src_ip的ip

    }

    virtual_ipaddress {

        172.16.3.110/24    # VIP

    }

    track_script {

        CheckK8sMaster

    }

}

EOF

启动keepalived并测试下ip能否正常漂移


systemctl start keepalived

systemctl status keepalived

首先查看vip在哪台master上


#找到对应的vip

ip a

如下图,我的vip目前在172.16.3.131这台机器上,这时候关闭131上的keepalived看看vip能否正常漂移到另一台master也就是130上,如果可以正常漂移过去就说明生效了

在这里插入图片描述

3.整理初始化配置文件

这个步骤由于每个版本的配置文件模板不一样所以需要动态调整,需要在自己的版本配置文件的基础上来修改,我这里的版本是kubeadm.k8s.io/v1beta2,以下有几个注意的点

  1. apiServer.certSANs需要把集群所有ip添加,并且还要吧对应的hosts的名称添加进来

  2. localAPIEndpoint.advertiseAddress是当前的节点ip

  3. controlPlaneEndpoint是 vip的地址

  4. imageRepository需要改为国内镜像源

  5. etcd需要把刚才的ip都配置一遍


#先导出一份基础配置

kubeadm config print init-defaults >init-config.yaml

这个是基于1.19版本的修改为高可用后的配置文件


apiVersion: kubeadm.k8s.io/v1beta2

bootstrapTokens:

- groups:

  - system:bootstrappers:kubeadm:default-node-token

  token: abcdef.0123456789abcdef

  ttl: 24h0m0s

  usages:

  - signing

  - authentication

kind: InitConfiguration

localAPIEndpoint:

  advertiseAddress: 172.16.3.130

  bindPort: 6443

nodeRegistration:

  criSocket: /var/run/dockershim.sock

  name: master

  taints:

  - effect: NoSchedule

    key: node-role.kubernetes.io/master

---

apiServer:

  timeoutForControlPlane: 4m0s

  certSANs:

  - "node0"

  - "node1"

  - "node2"

  - "172.16.3.110"

  - "172.16.3.130"

  - "172.16.3.131"

  - "172.16.3.132"

  - "127.0.0.1"

  extraArgs:

          etcd-cafile: /etc/etcd/ssl/ca.pem

          etcd-certfile: /etc/etcd/ssl/etcd.pem

          etcd-keyfile: /etc/etcd/ssl/etcd-key.pem

controlPlaneEndpoint: "172.16.3.130:6443"

apiVersion: kubeadm.k8s.io/v1beta2

certificatesDir: /etc/kubernetes/pki

clusterName: kubernetes

controllerManager: {}

dns:

  type: CoreDNS

etcd:

  external:

        caFile: /etc/etcd/ssl/ca.pem

        certFile: /etc/etcd/ssl/etcd.pem

        keyFile: /etc/etcd/ssl/etcd-key.pem

        endpoints:

        - https://172.16.3.130:2379

        - https://172.16.3.131:2379

        - https://172.16.3.132:2379

imageRepository: registry.aliyuncs.com/google_containers

kind: ClusterConfiguration

kubernetesVersion: v1.19.0

networking:

  dnsDomain: cluster.local

  serviceSubnet: 10.96.0.0/12

  podSubnet: "10.244.0.0/16"

scheduler: {}

---

apiVersion: kubeproxy.config.k8s.io/v1alpha1

kind: KubeProxyConfiguration

mode: "ipvs"

4.开始配置集群

需要注意的是,我们可以ping通vip的地址,但是有一个问题,集群的初始化必须要在当前vip所在的机器上,否则会疯狂的超时


GET https://172.16.3.110:6443/healthz?timeout=10s in 0 milliseconds

找到vip所在的master节点,开始初始化集群


kubeadm init --config init-config.yaml

在这里插入图片描述

安装完成后,会有两个join的命令,带有 --control-plane 是加入master集群的,执行之前需要先将证书发送过去


scp -r /etc/kubernetes/pki  172.16.3.130:/etc/kubernetes/

#然后执行对应的join命令即可

kubeadm join 172.16.3.110:6443 --token abcdef.0123456789abcdef \

    --discovery-token-ca-cert-hash sha256:c546b1e5c5cf3e587752bbd862db332c183607b6f9c48b6514e9197f25cdbe39 \

    --control-plane

#加入成功后配置命令

  mkdir -p $HOME/.kube

  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config

  sudo chown $(id -u):$(id -g) $HOME/.kube/config   

然后查看下节点即可

在这里插入图片描述

再查看下各组件状态,如果是1.19版本的话默认是会连接失败

在这里插入图片描述

如果连接失败只需将/etc/kubernetes/manifests下面的配置文件修改下

[图片上传失败...(image-121cea-1606199416446)]

将这个两个配置文件上的--port=0这行删除即可,到此整个高可用集群搭建完成

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,142评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,298评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,068评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,081评论 1 291
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,099评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,071评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,990评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,832评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,274评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,488评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,649评论 1 347
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,378评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,979评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,625评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,796评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,643评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,545评论 2 352

推荐阅读更多精彩内容