本文介绍在centos7.5使用kubeadm快速离线安装kubernetes 1.14
采用单master,单node(可以多node),占用资源较少,方便在笔记本或学习环境快速部署,不适用于生产环境。
所需文件百度盘连接
链接: https://pan.baidu.com/s/1vCGy853LBxh2LrQsO1RBKQ 提取码: xn52
一、环境准备
准备不低于2台虚机。 1台 master,其余的做node
OS: Centos7.5 mini install。 最小化安装。配置节点IP
主机名 IP 配置
master 192.168.98.130 2C 2G
node 192.168.98.131 2C 2G
分别设置主机名为master1 node1 ... 时区
timedatectl set-timezone Asia/Shanghai #都要执行
hostnamectl set-hostname master1 #master1执行
hostnamectl set-hostname node1 #node1执行
在所有节点/etc/hosts中添加解析,master1,node1
修改host的命令
vim /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.98.130 matser1
192.168.98.131 node1
关闭所有节点的seliux以及firewalld
sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config
setenforce 0
systemctl disable firewalld
systemctl stop firewalld
将下载好的k8s镜像上传到服务器上
2、安装docker
使用文件docker-ce-18.09.tar.gz,每个节点都要安装。
tar -zxvf docker-ce-18.09.tar.gz
cd docker
rpm -Uvh * 或者 yum localinstall *.rpm 进行安装,yum命令可以自动解决依赖
docker version #安装完成查看版本
启动docker,并设置为开机自启
systemctl start docker && systemctl enable docker
输入命令,结果为Cgroup Driver: cgroupfs时,则正确
docker info | grep cgroup
docker和kubelet的cgroup driver需要一致,如果docker不是cgroupfs,则执行
cat << EOF > /etc/docker/daemon.json
{
"exec-opts": ["native.cgroupdriver=cgroupfs"]
}
EOF
systemctl daemon-reload && systemctl restart docker
三、 安装kubeadm,kubectl,kubelet
使用文件kube114-rpm.tar.gz,每个节点都要安装
kubeadm是集群部署工具
kubectl是集群管理工具,通过command来管理集群
kubelet的k8s集群每个节点的docker管理服务
tar -zxvf kube114-rpm.tar.gz
cd kube114-rpm
yum localinstall *.rpm 进行安装,yum命令可以自动解决依赖
关闭swap,及修改iptables,不然后面kubeadm会报错
swapoff -a
vi /etc/fstab #swap一行注释(/dev/mapper/centos-swap swap swap defaults 0 0)
设置网络连接,直接复制粘贴
cat <<EOF > /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
sysctl --system
四、导入镜像
回到初始目录
使用文件k8s-114-images.tar.gz flannel-dashboard.tar.gz,每个节点都要执行
节点较少,就不搭建镜像仓库服务了,后续要用的应用镜像,每个节点都要导入
docker load -i k8s-114-images.tar.gz
docker load -i flannel-dashboard.tar.gz
一共9个镜像,分别是
k8s.gcr.io/kube-apiserver:v1.14.1
k8s.gcr.io/kube-controller-manager:v1.14.1
k8s.gcr.io/kube-scheduler:v1.14.1
k8s.gcr.io/kube-proxy:v1.14.1
k8s.gcr.io/pause:3.1
k8s.gcr.io/etcd:3.3.10
k8s.gcr.io/coredns:1.3.1
k8s.gcr.io/kubernetes-dashboard-amd64:v1.10.1
quay.io/coreos/flannel:v0.11.0-amd64
五、 kubeadm init 部署master节点
只在master执行。此处选用最简单快捷的部署方案。etcd、api、controller-manager、 scheduler服务都会以容器的方式运行在master。etcd 为单点,不带证书。etcd的数据会挂载到master节点/var/lib/etcd
init部署是支持etcd 集群和证书模式的,配置方法见我1.9的文档,此处略过。
init命令注意要指定版本,和pod范围
kubeadm init --kubernetes-version=v1.14.1 --pod-network-cidr=10.244.0.0/16#需要执行
#执行后结果出现 需要执行创建文件夹以及配置文件等命令
Your Kubernetes control-plane has initialized successfully!
To start using your cluster, you need to run the following as a regular user:
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
https://kubernetes.io/docs/concepts/cluster-administration/addons/
Then you can join any number of worker nodes by running the following on each as root:
kubeadm join 192.168.4.130:6443 --token 911xit.xkp2gfxbvf5wuqz7 \
--discovery-token-ca-cert-hash sha256:23db3094dc9ae1335b25692717c40e24b1041975f6a43da9f43568f8d0dbac72#需要复制保存后期加入节点使用
记下join的命令,后续node节点加入的时候要用到
执行提示的命令,保存kubeconfig
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
此时执行kubectl get node 已经可以看到master节点,notready是因为还未部署网络插件
[root@master1 ~]# kubectl get node
NAME STATUS ROLES AGE VERSION
master1 NotReady master 3m9s v1.14.1
查看所有的pod,kubectl get pod --all-namespaces
coredns也依赖于容器网络,此时pending是正常的
[root@master1 ~]# kubectl get pod --all-namespaces
NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system coredns-fb8b8dccf-8wdn8 0/1 Pending 0 2m21s
kube-system coredns-fb8b8dccf-rsnr6 0/1 Pending 0 2m21s
kube-system etcd-master1 1/1 Running 0 89s
kube-system kube-apiserver-master1 1/1 Running 0 94s
kube-system kube-controller-manager-master1 1/1 Running 0 89s
kube-system kube-proxy-9nl4m 1/1 Running 0 2m21s
kube-system kube-scheduler-master1 1/1 Running 0 106s
配置KUBECONFIG变量
echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> /etc/profile
source /etc/profile
echo $KUBECONFIG #应该返回/etc/kubernetes/admin.conf
六、部署flannel网络
k8s支持多种网络方案,flannel,calico,openvswitch
此处选择flannel。 在熟悉了k8s部署后,可以尝试其他网络方案,我另外一篇1.9部署中有介绍flannel和calico的方案,以及切换时需要的动作。
kubectl create -f kube-flannel.yml
网络就绪后,节点的状态会变为ready
[root@master1 ~]# kubectl get node
NAME STATUS ROLES AGE VERSION
master1 Ready master 11m v1.14.1
查看生成的子节点秘钥
kubeadm token list
七、kubeadm join 加入node节点
7.1 node节点加入集群
使用之前kubeadm init 生产的join命令,加入成功后,回到master节点查看是否成功
kubeadm join 192.168.98.130:6443 --token joepu0.xwdlubks8co6726b \
--discovery-token-ca-cert-hash sha256:07e40adf00098b9be10f001f51287d9a011ba4d43bd5bb2f13b25b6e19078b24
[root@master1 ~]# kubectl get node
NAME STATUS ROLES AGE VERSION
master1 Ready master 12m v1.14.1
node1 Ready <none> 9m52s v1.14.1
八、部署k8s ui界面,dashboard
dashboard是官方的k8s 管理界面,可以查看应用信息及发布应用。dashboard的语言是根据浏览器的语言自己识别的
官方默认的dashboard为https方式,如果用chrome访问会拒绝。本次部署做了修改,方便使用,使用了http方式,用chrome访问正常。
修改方法可以查看我简书中另一篇文档,修改dashboard 为http方式
一共需要导入3个yaml文件
文件地址
https://github.com/cai11745/k8s-ocp-yaml/tree/master/yaml-file/dashboard-1.10.1
kubectl apply -f kubernetes-dashboard.yaml
kubectl apply -f admin-role.yaml
kubectl apply -f kubernetes-dashboard-admin.rbac.yaml
[root@master1 ~]# kubectl -n kube-system get svc
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
kube-dns ClusterIP 10.96.0.10 <none> 53/UDP,53/TCP,9153/TCP 32m
kubernetes-dashboard NodePort 10.97.8.30 <none> 443:32001/TCP,80:32000/TCP 13m
创建完成后,通过 http://任意节点的IP:32000即可访问ui
不需要输入token,也不需要https