2、使用ansible进行K8s初始化安装配置。

apt-get install python2.7
ln -s /usr/bin/python2.7 /usr/bin/python
apt-get install git ansible -y
ssh-keygen #生成密钥对
apt-get install sshpass #ssh同步公钥到各k8s服务器
#!/bin/bash
#目标主机列表
IP="
192.168.7.101
192.168.7.102
192.168.7.103
192.168.7.104
192.168.7.105
192.168.7.106
192.168.7.107
192.168.7.108
192.168.7.109
192.168.7.110
192.168.7.111"
for node in ${IP};do
  sshpass -p 123456 ssh-copy-id ${node} -o StrictHostKeyChecking=no
  if [ $? -eq 0 ];then
    echo "${node} 秘钥copy完成"
  else
    echo "${node} 秘钥copy失败"
  fi
done

同步docker证书脚本:

#!/bin/bash
#目标主机列表
IP="
192.168.7.101
192.168.7.102
192.168.7.103
192.168.7.104
192.168.7.105
192.168.7.106
192.168.7.107
192.168.7.108
192.168.7.109
192.168.7.110
192.168.7.111"
for node in ${IP};do
  sshpass -p 123456 ssh-copy-id ${node} -o StrictHostKeyChecking=no
  if [ $? -eq 0 ];then
    echo "${node} 秘钥copy完成"
    echo "${node} 秘钥copy完成,准备环境初始化....."
    ssh ${node} "mkdir /etc/docker/certs.d/harbor.magedu.net -p"
    echo "Harbor 证书目录创建成功!"
    scp /etc/docker/certs.d/harbor.magedu.net/harbor-ca.crt ${node}:/etc/docker/certs.d/harbor.magedu.net/harbor-ca.crt
    echo "Harbor 证书拷贝成功!"
    scp /etc/hosts ${node}:/etc/hosts echo "host 文件拷贝完成"
    scp -r /root/.docker ${node}:/root/
    echo "Harbor 认证文件拷贝完成!"
    scp -r /etc/resolv.conf ${node}:/etc/ elseecho "${node} 秘钥copy失败"
  fi
done

执行脚本同步:

k8s-master1:~# bash scp.sh

clone项目

git clone -b 0.6.1 https://github.com/easzlab/kubeasz.git
mv /etc/ansible/* /opt/
mv kubeasz/* /etc/ansible/
cd /etc/ansible/
cp example/hosts.m-masters.example ./hosts #复制hosts模 板文件

准备hosts文件

root@k8s-master1:/etc/ansible# pwd
/etc/ansible root@k8s-master1:/etc/ansible# cp example/hosts.m-masters.example ./hosts
root@k8s-master1:/etc/ansible# cat hosts

集群部署节点:一般为运行ansible脚本的节点
变量 NTP_ENABLED (=yes/no) 设置集群是否安装 chrony 时间同步

[deploy]
192.168.7.101 NTP_ENABLED=no #etcd集群请提供如下NODE_NAME,注意etcd集群必须是1,3,5,7...奇数个节点
[etcd]
192.168.7.105 NODE_NAME=etcd1
192.168.7.106 NODE_NAME=etcd2
192.168.7.107 NODE_NAME=etcd3
[new-etcd] # 预留组,后续添加etcd节点使用
#192.168.7.x NODE_NAME=etcdx
[kube-master]
192.168.7.101
[new-master] # 预留组,后续添加master节点使用
#192.168.7.5
[kube-node]
192.168.7.110
[new-node] # 预留组,后续添加node节点使用
#192.168.7.xx

# 参数 NEW_INSTALL:yes表示新建,no表示使用已有harbor服务器
# 如果不使用域名,可以设置 HARBOR_DOMAIN=""
[harbor]
#192.168.7.8 HARBOR_DOMAIN="harbor.yourdomain.com" NEW_INSTALL=no

负载均衡(目前已支持多于2节点,一般2节点就够了) 安装 haproxy+keepalived

[lb]
192.168.7.1 LB_ROLE=backup
192.168.7.2 LB_ROLE=master
#可选,外部负载均衡,用于自有环境负载转发 NodePort 暴露的服务等
[ex-lb]
#192.168.7.6 LB_ROLE=backup EX_VIP=192.168.7.250
#192.168.7.7 LB_ROLE=master EX_VIP=192.168.7.250

[all:vars]
# ---------集群主要参数---------------
#集群部署模式:allinone, single-master, multi-master DEPLOY_MODE=multi-master
#集群主版本号,目前支持: v1.8, v1.9, v1.10,v1.11, v1.12, v1.13 K8S_VER="v1.13"

# 集群 MASTER IP即 LB节点VIP地址,为区别与默认apiserver端口,设置VIP监听的服务端口8443
# 公有云上请使用云负载均衡内网地址和监听端口
MASTER_IP="192.168.7.248"
KUBE_APISERVER="https://{{ MASTER_IP }}:6443"

# 集群网络插件,目前支持calico, flannel, kube-router, cilium
CLUSTER_NETWORK="calico"
# 服务网段 (Service CIDR),注意不要与内网已有网段冲突
SERVICE_CIDR="10.20.0.0/16"

# POD 网段 (Cluster CIDR),注意不要与内网已有网段冲突
CLUSTER_CIDR="172.31.0.0/16"

# 服务端口范围 (NodePort Range)
NODE_PORT_RANGE="20000-60000"
# kubernetes 服务 IP (预分配,一般是 SERVICE_CIDR 中第一个IP) CLUSTER_KUBERNETES_SVC_IP="10.20.0.1"

# 集群 DNS 服务 IP (从 SERVICE_CIDR 中预分配)
CLUSTER_DNS_SVC_IP="10.20.254.254"

# 集群 DNS 域名
CLUSTER_DNS_DOMAIN="linux36.local."

# 集群basic auth 使用的用户名和密码
BASIC_AUTH_USER="admin"
BASIC_AUTH_PASS="123456"

# ---------附加参数--------------------
#默认二进制文件目录
bin_dir="/usr/bin"

证书目录
ca_dir="/etc/kubernetes/ssl"

部署目录,即 ansible 工作目录,建议不要修改

base_dir="/etc/ansible"
k8s-master1:/etc/ansible/bin# pwd
/etc/ansible/bin
k8s-master1:/etc/ansible/bin# tar xvf k8s.1-13-5.tar.gz
k8s-master1:/etc/ansible/bin# mv bin/* .

开始按步骤部署

环境初始化
root@k8s-master1:/etc/ansible# ansible-playbook 01.prepare.yml

部署etcd集群
root@k8s-master1:/etc/ansible# ansible-playbook 02.etcd.yml

部署docker
root@k8s-master1:/etc/ansible# ansible-playbook 03.docker.yml

部署master

root@k8s-master1:/etc/ansible# ansible-playbook 04.kube-master.yml

部署node

root@k8s-master1:/etc/ansible# vim roles/kube-node/defaults/main.yml`
#基础容器镜像 SANDBOX_IMAGE: "harbor.magedu.net/baseimages/pause-amd64:3.1"
root@k8s-master1:/etc/ansible# ansible-playbook 05.kube-node.yml

部署网络服务calico

# docker load -i calico-cni.tar
# docker tag calico/cni:v3.4.4 harbor.magedu.net/baseimages/cni:v3.4.4
# docker push harbor.magedu.net/baseimages/cni:v3.4.4
# docker load -i calico-node.tar
# docker tag calico/node:v3.4.4 harbor.magedu.net/baseimages/node:v3.4.4
# docker push harbor.magedu.net/baseimages/node:v3.4.4
# docker load -i calico-kube-controllers.tar
# docker tag calico/kube-controllers:v3.4.4 harbor.magedu.net/baseimages/kube- controllers:v3.4.4
# docker push harbor.magedu.net/baseimages/kube-controllers:v3.4.4 执行部署网络: root@k8s-master1:/etc/ansible
# ansible-playbook 06.network.yml

添加node节点

[kube-node] 192.168.7.110
[new-node] # 预留组,后续添加node节点使用 192.168.7.111
root@k8s-master1:/etc/ansible# ansible-playbook 20.addnode.yml

添加master节点

[kube-master] 192.168.7.101
[new-master] # 预留组,后续添加master节点使用 192.168.7.102
root@k8s-master1:/etc/ansible# ansible-playbook 21.addmaster.yml

验证当前状态
root@k8s-master1:/etc/ansible# calicoctl node status

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

友情链接更多精彩内容