Kubernetes-v1.19.3集群使用kubeadm安装

Kubernetes-v1.19.3集群使用kubeadm安装

1、基础环境准备
1.1、机器说明,共三台机器一台master,两台node节点
机器说明 ip 系统
master 192.168.80.10 centos7.8
node1 192.168.80.20 centos7.8
node2 192.168.80.30 centos7.8
[root@kubernetes-master ~]# cat /etc/redhat-release 
CentOS Linux release 7.8.2003 (Core)
[root@kubernetes-master ~]# rpm -q kernel
kernel-3.10.0-1127.19.1.el7.x86_64
[root@kubernetes-master ~]# 
1.2、三台机器均配置host
192.168.80.10 kubernetes-master
192.168.80.20 kubernetes-node20
192.168.80.30 kubernetes-node30
1.3、三台机器均操作以下配置
  • 关闭SELINUX
setenforce 0
sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config
  • 关闭swap
swapoff -a
sed -i 's/^[^#].*swap/#&/' /etc/fstab
systemctl daemon-reload
  • 关闭ipv6
echo net.ipv6.conf.all.disable_ipv6=1 >> /etc/sysctl.conf
echo NETWORKING_IPV6=no >> /etc/sysconfig/network
sed -i 's/IPV6INIT=yes/IPV6INIT=no/g' /etc/sysconfig/network-scripts/ifcfg-ens33
sysctl -p
ip a 查看ipv6是否关闭
  • 关闭防火墙
systemctl stop firewalld
systemctl disable firewalld
systemctl status firewalld
  • 配置将桥接流量传递到iptables并执行生效
cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF

sudo sysctl --system
1.4、三台机器均安装docker
  • 卸载可能存在的旧版docker
sudo yum remove docker \
                   docker-client \
                   docker-client-latest \
                   docker-common \
                   docker-latest \
                   docker-latest-logrotate \
                   docker-logrotate \
                   docker-engine

安装包如下

containerd.io-1.3.7-3.1.el7.x86_64.rpm
docker-ce-19.03.13-3.el7.x86_64.rpm
docker-ce-cli-19.03.13-3.el7.x86_64.rpm

本地安装docker

yum localinstall *.rpm -y --nogpgcheck

设置开机启动并启动docker

systemctl enable docker
systemctl start docker

修改docker的cgroupdriver为systemd(默认为cgroups),因kubernetes默认使用的cgroupdriver为systemd(kubernetes自带的推荐使用)

vi /etc/docker/daemon.json

{
    "exec-opts":["native.cgroupdriver=systemd"]
}

systemctl restart docker
1.5、master机器设置免登录node20、node30(在master上执行以下命令)
ssh-keygen -t rsa (一路默认回车即可)
ssh-copy-id kubernetes-master
ssh-copy-id kubernetes-node20
ssh-copy-id kubernetes-node30
1.6、镜像准备
  • 预先从阿里云镜像获取到对应版本的镜像
docker pull registry.aliyuncs.com/google_containers/kube-apiserver:v1.19.3
docker pull registry.aliyuncs.com/google_containers/kube-controller-manager:v1.19.3
docker pull registry.aliyuncs.com/google_containers/kube-scheduler:v1.19.3
docker pull registry.aliyuncs.com/google_containers/kube-proxy:v1.19.3
docker pull registry.aliyuncs.com/google_containers/pause:3.2
docker pull registry.aliyuncs.com/google_containers/etcd:3.4.13-0
docker pull registry.aliyuncs.com/google_containers/coredns:1.7.0

拿下来后统一改名(master节点需要以下所有镜像)

docker tag registry.aliyuncs.com/google_containers/kube-apiserver:v1.19.3           k8s.gcr.io/kube-apiserver:v1.19.3
docker tag registry.aliyuncs.com/google_containers/kube-controller-manager:v1.19.3  k8s.gcr.io/kube-controller-manager:v1.19.3
docker tag registry.aliyuncs.com/google_containers/kube-scheduler:v1.19.3           k8s.gcr.io/kube-scheduler:v1.19.3
docker tag registry.aliyuncs.com/google_containers/kube-proxy:v1.19.3               k8s.gcr.io/kube-proxy:v1.19.3
docker tag registry.aliyuncs.com/google_containers/pause:3.2                        k8s.gcr.io/pause:3.2
docker tag registry.aliyuncs.com/google_containers/etcd:3.4.13-0                    k8s.gcr.io/etcd:3.4.13-0
docker tag registry.aliyuncs.com/google_containers/coredns:1.7.0                    k8s.gcr.io/coredns:1.7.0
  • 另使用calico网络插件,所需依赖的镜像国内网络环境可自动下载
calico/node:v3.16.5
calico/pod2daemon-flexvol:v3.16.5
calico/cni:v3.16.5
calico/kube-controllers:v3.16.5
1.7、 kubernetes安装包下载

安装包阿里云镜像下载

  • 下载的安装包如下
14bfe6e75a9efc8eca3f638eb22c7e2ce759c67f95b43b16fae4ebabde1549f3-cri-tools-1.13.0-0.x86_64.rpm
1de80331b548f69c71f62d733ad957e4153e9c9af5528d3dea74a3088c0b8421-kubelet-1.19.3-0.x86_64.rpm
24a0b394551c612fdc827c5f46a10bd1472fd79d070c2d0310c06369ce97f23a-kubeadm-1.19.3-0.x86_64.rpm
d088f1c423aca204ae08d0da14b244da33897ec16198d7aae117da2caf0b3141-kubectl-1.19.3-0.x86_64.rpm
db7cb5cb0b3f6875f54d10f02e625573988e3e91fd4fc5eef0b1876bb18604ad-kubernetes-cni-0.8.7-0.x86_64.rpm
2、master安装
2.1、 导入镜像(此tar镜像为单独下载并导出以作离线安装使用)

可使用kubeadm config images list --kubernetes-version=1.19.3检查安装所依赖的镜像

docker load < calico+cni:v3.16.5.tar
docker load < calico+kube-controllers:v3.16.5.tar
docker load < calico+node:v3.16.5.tar
docker load < calico+pod2daemon-flexvol:v3.16.5.tar
docker load < k8s.gcr.io+coredns:1.7.0.tar
docker load < k8s.gcr.io+etcd:3.4.13-0.tar
docker load < k8s.gcr.io+kube-apiserver:v1.19.3.tar
docker load < k8s.gcr.io+kube-controller-manager:v1.19.3.tar
docker load < k8s.gcr.io+kube-proxy:v1.19.3.tar
docker load < k8s.gcr.io+kube-scheduler:v1.19.3.tar
docker load < k8s.gcr.io+pause:3.2.tar

docker tag c1fa37765208 calico/node:v3.16.5
docker tag 178cfd5d2400 calico/pod2daemon-flexvol:v3.16.5
docker tag 9165569ec236 calico/cni:v3.16.5
docker tag 1120bf0b8b41 calico/kube-controllers:v3.16.5
docker tag cdef7632a242 k8s.gcr.io/kube-proxy:v1.19.3
docker tag 9b60aca1d818 k8s.gcr.io/kube-controller-manager:v1.19.3
docker tag a301be0cd44b k8s.gcr.io/kube-apiserver:v1.19.3
docker tag aaefbfa906bd k8s.gcr.io/kube-scheduler:v1.19.3
docker tag 0369cf4303ff k8s.gcr.io/etcd:3.4.13-0
docker tag bfe3a36ebd25 k8s.gcr.io/coredns:1.7.0
docker tag 80d28bedfe5d k8s.gcr.io/pause:3.2   

2.2、安装kubeadm kubectl kubelet
[root@kubernetes-master software]# ls *.rpm
14bfe6e75a9efc8eca3f638eb22c7e2ce759c67f95b43b16fae4ebabde1549f3-cri-tools-1.13.0-0.x86_64.rpm
1de80331b548f69c71f62d733ad957e4153e9c9af5528d3dea74a3088c0b8421-kubelet-1.19.3-0.x86_64.rpm
24a0b394551c612fdc827c5f46a10bd1472fd79d070c2d0310c06369ce97f23a-kubeadm-1.19.3-0.x86_64.rpm
d088f1c423aca204ae08d0da14b244da33897ec16198d7aae117da2caf0b3141-kubectl-1.19.3-0.x86_64.rpm
db7cb5cb0b3f6875f54d10f02e625573988e3e91fd4fc5eef0b1876bb18604ad-kubernetes-cni-0.8.7-0.x86_64.rpm
[root@kubernetes-master software]# yum localinstall *.rpm -y --nogpgcheck
2.3、初始化master
kubeadm init --kubernetes-version=1.19.3
  • 按提示初始化完执行命令
  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config
  • 按提示打印出节点加入的方法
kubeadm join 192.168.80.10:6443 --token 945iyw.ejofmbm5mi1rbong \
    --discovery-token-ca-cert-hash sha256:2835ace5eed724587d0467a789a0b902a917f27959203a1a5e8428e38e125f2a

可通过kubeadm token list查看当前的token,默认有效期为24小时,若忘记token或token过期,可使用命令kubeadm token create --print-join-command重新生成,若初始有问题可通过命令kubeadm reset重置。

2.4、启动kubelet并检查状态
systemctl start kubelet
systemctl status kubelet

若启动出错,可使用命令journalctl -xefu kubelet跟踪错误信息

出现kubelet cgroup driver: "cgroupfs" is different from docker cgroup driver: "systemd"需修改k8s配置文件指定cgroup为systemd,修改配置文件/usr/lib/systemd/system/kubelet.service.d/10-kubeadm.conf,在KUBELET_KUBECONFIG_ARGS参数增加配置--cgroup-driver=systemd,修改配置文件/var/lib/kubelet/kubeadm-flags.env,在KUBELET_KUBEADM_ARGS参数增加配置--cgroup-driver=systemd,修改完后执行systemctl daemon-reload ; systemctl restart docker kubelet

2.5、查看集群节点状态
[root@kubernetes-master ~]# kubectl get node
NAME                STATUS     ROLES    AGE   VERSION
kubernetes-master   NotReady   master   13m   v1.19.3

可以看到master节点是NotReady状态

2.6、安装calico网络插件

下载calico网络插件配置文件

可使用命令grep image calico.yaml查看calico所需的镜像

  • 安装calico命令
kubectl apply -f calico.yaml 

安装完成后即可看到master为Ready状态

[root@kubernetes-master ~]# kubectl get node
NAME                STATUS   ROLES    AGE   VERSION
kubernetes-master   Ready    master   19m   v1.19.3
2.7、检查组件状态(kubectl get cs|kubectl get componentstatus)
[root@kubernetes-master ~]# kubectl get cs
Warning: v1 ComponentStatus is deprecated in v1.19+
NAME                 STATUS      MESSAGE                                                                                       ERROR
scheduler            Unhealthy   Get "http://127.0.0.1:10251/healthz": dial tcp 127.0.0.1:10251: connect: connection refused   
controller-manager   Unhealthy   Get "http://127.0.0.1:10252/healthz": dial tcp 127.0.0.1:10252: connect: connection refused   
etcd-0               Healthy     {"health":"true"} 

可以看到scheduler与controller-manager是Unhealthy的,按端口提示检查10251及10252是否有监听

ss -ant|grep 10251
ss -ant|grep 10252

发现均未有监听,检查配置文件/etc/kubernetes/manifests/kube-scheduler.yaml/etc/kubernetes/manifests/kube-controller-manager.yaml并将两个配置文件的配置项- --port=0均注释掉,并重启kubelet,重新检查组件状态

[root@kubernetes-master ~]# systemctl restart kubelet
[root@kubernetes-master ~]# kubectl get cs
Warning: v1 ComponentStatus is deprecated in v1.19+
NAME                 STATUS    MESSAGE             ERROR
etcd-0               Healthy   {"health":"true"}   
controller-manager   Healthy   ok                  
scheduler            Healthy   ok                  
[root@kubernetes-master ~]#
3、node安装
3.1 导入节点所需的镜像
docker load < calico+node:v3.16.5.tar
docker load < calico+pod2daemon-flexvol:v3.16.5.tar
docker load < calico+cni:v3.16.5.tar
docker load < calico+kube-controllers:v3.16.5.tar
docker load < k8s.gcr.io+kube-proxy:v1.19.3.tar
docker load < k8s.gcr.io+pause:3.2.tar

docker tag c1fa37765208  calico/node:v3.16.5
docker tag 178cfd5d2400  calico/pod2daemon-flexvol:v3.16.5
docker tag 9165569ec236  calico/cni:v3.16.5
docker tag 1120bf0b8b41  calico/kube-controllers:v3.16.5
docker tag cdef7632a242  k8s.gcr.io/kube-proxy:v1.19.3
docker tag 80d28bedfe5d  k8s.gcr.io/pause:3.2


3.2 安装kubeadm kubectl kubelet
[root@kubernetes-master software]# ls *.rpm
14bfe6e75a9efc8eca3f638eb22c7e2ce759c67f95b43b16fae4ebabde1549f3-cri-tools-1.13.0-0.x86_64.rpm
1de80331b548f69c71f62d733ad957e4153e9c9af5528d3dea74a3088c0b8421-kubelet-1.19.3-0.x86_64.rpm
24a0b394551c612fdc827c5f46a10bd1472fd79d070c2d0310c06369ce97f23a-kubeadm-1.19.3-0.x86_64.rpm
d088f1c423aca204ae08d0da14b244da33897ec16198d7aae117da2caf0b3141-kubectl-1.19.3-0.x86_64.rpm
db7cb5cb0b3f6875f54d10f02e625573988e3e91fd4fc5eef0b1876bb18604ad-kubernetes-cni-0.8.7-0.x86_64.rpm
[root@kubernetes-master software]# yum localinstall *.rpm -y --nogpgcheck
3.3 启动kubelet并加入集群
systemctl enable kubelet
systemctl start kubelet
kubeadm join 192.168.80.10:6443 --token yke737.yvu9ciyi09hdkscz     --discovery-token-ca-cert-hash sha256:2835ace5eed724587d0467a789a0b902a917f27959203a1a5e8428e38e125f2a 
4、集群检查
4.1、检查节点
[root@kubernetes-master ~]# kubectl get node
NAME                STATUS   ROLES    AGE     VERSION
kubernetes-master   Ready    master   49m     v1.19.3
kubernetes-node20   Ready    <none>   2m54s   v1.19.3
kubernetes-node30   Ready    <none>   2m50s   v1.19.3
[root@kubernetes-master ~]# 
4.2、检查基础应用
[root@kubernetes-master ~]# kubectl get po -A
NAMESPACE     NAME                                        READY   STATUS    RESTARTS   AGE
kube-system   calico-kube-controllers-5c6f6b67db-lcctk    1/1     Running   0          31m
kube-system   calico-node-7n7j2                           1/1     Running   0          3m21s
kube-system   calico-node-g5kvd                           1/1     Running   0          31m
kube-system   calico-node-t47vg                           1/1     Running   0          3m17s
kube-system   coredns-f9fd979d6-pmht4                     1/1     Running   0          49m
kube-system   coredns-f9fd979d6-w4vcl                     1/1     Running   0          49m
kube-system   etcd-kubernetes-master                      1/1     Running   0          49m
kube-system   kube-apiserver-kubernetes-master            1/1     Running   0          49m
kube-system   kube-controller-manager-kubernetes-master   1/1     Running   0          21m
kube-system   kube-proxy-cz6hl                            1/1     Running   0          3m21s
kube-system   kube-proxy-h2d9g                            1/1     Running   0          49m
kube-system   kube-proxy-wxx5k                            1/1     Running   0          3m17s
kube-system   kube-scheduler-kubernetes-master            1/1     Running   0          21m
[root@kubernetes-master ~]# 
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,928评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,192评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,468评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,186评论 1 286
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,295评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,374评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,403评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,186评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,610评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,906评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,075评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,755评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,393评论 3 320
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,079评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,313评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,934评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,963评论 2 351