k8s kubeadm部署过程

先使用二进制部署了几次,全部失败了,原因还未找到,所以使用kubeadm部署先用起来再说。使用二进制部署时,老是出了问题又搞不清原理,解决不了只好回滚虚拟机快照重新来过,太过麻烦,所以后来使用了vagrant。

1.下载VirtualBox和vagrant,编写Vagrantfile(启动三个虚拟机):

Vagrant.configure("2") do |config|

(1..3).each do |i|

config.vm.define "k8s-node#{i}" do |node|

node.vm.box="centos7"

node.vm.hostname="k8s-node#{i}"

node.vm.network "private_network",ip: "192.168.56.#{99+i}", netmask: "255.255.255.0"

node.vm.provider "virtualbox" do |v|

v.name="k8s-node#{i}"

v.memory=2048

v.cpus=2

end

end

end

end

2.虚拟机预处理,使用vagrant的话,先把ssh配一下,修改/etc/ssh/sshd_config的PasswordAuthentication属性为yes以方便xshell连接(Vagrantfile里应该也可以配置,但眼下还没研究怎么弄),修改虚拟机的配置方便安装k8s:

#各个机器设置自己的域名(vagrant就不需要了,在Vagrantfile里配置了)

hostnamectl set-hostname xxxx

集群的主机名写入host文件

cat >> /etc/hosts << EOF

192.168.56.100 k8s-node1

192.168.56.101 k8s-node2

192.168.56.102 k8s-node3

EOF

#关闭防火墙: 或者阿里云开通安全组端口访问

systemctl stop firewalld

systemctl disable firewalld

#关闭 selinux:

sed -i 's/enforcing/disabled/' /etc/selinux/config

setenforce 0

#关闭 swap:

swapoff -a  #临时

sed -ri 's/.*swap.*/#&/' /etc/fstab  #永久

#将桥接的 IPv4 流量传递到 iptables 的链:

# 修改 /etc/sysctl.conf

# 如果有配置,则修改

sed -i "s#^net.ipv4.ip_forward.*#net.ipv4.ip_forward=1#g"  /etc/sysctl.conf

sed -i "s#^net.bridge.bridge-nf-call-ip6tables.*#net.bridge.bridge-nf-call-ip6tables=1#g"  /etc/sysctl.conf

sed -i "s#^net.bridge.bridge-nf-call-iptables.*#net.bridge.bridge-nf-call-iptables=1#g"  /etc/sysctl.conf

sed -i "s#^net.ipv6.conf.all.disable_ipv6.*#net.ipv6.conf.all.disable_ipv6=1#g"  /etc/sysctl.conf

sed -i "s#^net.ipv6.conf.default.disable_ipv6.*#net.ipv6.conf.default.disable_ipv6=1#g"  /etc/sysctl.conf

sed -i "s#^net.ipv6.conf.lo.disable_ipv6.*#net.ipv6.conf.lo.disable_ipv6=1#g"  /etc/sysctl.conf

sed -i "s#^net.ipv6.conf.all.forwarding.*#net.ipv6.conf.all.forwarding=1#g"  /etc/sysctl.conf

# 可能没有,追加

echo "net.ipv4.ip_forward = 1" >> /etc/sysctl.conf

echo "net.bridge.bridge-nf-call-ip6tables = 1" >> /etc/sysctl.conf

echo "net.bridge.bridge-nf-call-iptables = 1" >> /etc/sysctl.conf

echo "net.ipv6.conf.all.disable_ipv6 = 1" >> /etc/sysctl.conf

echo "net.ipv6.conf.default.disable_ipv6 = 1" >> /etc/sysctl.conf

echo "net.ipv6.conf.lo.disable_ipv6 = 1" >> /etc/sysctl.conf

echo "net.ipv6.conf.all.forwarding = 1"  >> /etc/sysctl.conf

# 执行命令以应用

sysctl -p


3.每个节点安装docker:

sudo yum install -y yum-utils

sudo yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

yum install -y docker-ce-20.10.7 docker-ce-cli-20.10.7 containerd.io-1.4.6

sudo mkdir -p /etc/docker

sudo tee /etc/docker/daemon.json <<-'EOF'

{

  "registry-mirrors": ["https://82m9ar63.mirror.aliyuncs.com"],

  "exec-opts": ["native.cgroupdriver=systemd"],

  "log-driver": "json-file",

  "log-opts": {

    "max-size": "100m"

  },

  "storage-driver": "overlay2"

}

EOF

sudo systemctl daemon-reload

sudo systemctl start docker

4.安装kubelet、kubeadm、kubectl(每个节点都安装):

cat <<EOF | sudo tee /etc/yum.repos.d/kubernetes.repo

[kubernetes]

name=Kubernetes

baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64

enabled=1

gpgcheck=0

repo_gpgcheck=0

gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg

  http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg

exclude=kubelet kubeadm kubectl

EOF

sudo yum install -y kubelet-1.20.9 kubeadm-1.20.9 kubectl-1.20.9 --disableexcludes=kubernetes

sudo systemctl enable --now kubelet

5.使用kubeadm初始化主节点

下载各个机器需要的镜像(master的组件通过容器来创建):

udo tee ./images.sh <<-'EOF'

#!/bin/bash

images=(

kube-apiserver:v1.20.9

kube-proxy:v1.20.9

kube-controller-manager:v1.20.9

kube-scheduler:v1.20.9

coredns:1.7.0

etcd:3.4.13-0

pause:3.2

)

for imageName in ${images[@]} ; do

docker pull registry.cn-hangzhou.aliyuncs.com/lfy_k8s_images/$imageName

done

EOF

chmod +x ./images.sh && ./images.sh

初始化主节点:

kubeadm init \

--apiserver-advertise-address=192.168.56.100 \

--control-plane-endpoint=k8s-node1 \

--image-repository registry.cn-hangzhou.aliyuncs.com/lfy_k8s_images \

--kubernetes-version v1.20.9 \

--service-cidr=10.96.0.0/16 \

--pod-network-cidr=172.18.0.0/16

# apiserver-advertise-address:master地址

# control-plane-endpoint:master主机名

# service-cidr:service的clusterIp地址

# pod-network-cidr:pod使用的ip地址

执行完成后,终端的输出为下一步的操作指令,执行(否则kubectl不能使用):

mkdir -p $HOME/.kube

  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config

  sudo chown $(id -u):$(id -g) $HOME/.kube/config

6.在主节点安装网络插件:

curl https://docs.projectcalico.org/manifests/calico.yaml -O

修改calico.yaml,找到192.168对应的一行,改为pod-network-cidr对应的ip,注意这行以及上面一行的- name被注释了,要打开,还要注意缩进,执行:kubectl apply -f calico.yaml

7.将工作节点加入k8s:

执行kubeadm init后的输出中的最后一段为工作节点加入的命令:

kubeadm join k8s-node1:6443 --token hums8f.vyx71prsg74ofce7 \

    --discovery-token-ca-cert-hash sha256:a394d059dd51d68bb007a532a037d0a477131480ae95f75840c461e85e2c6ae3

如果这段话未记录下来的话,可以使用:kubeadm token list | awk -F" " '{print $1}' |tail -n 1    来查看token,然后使用:openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | openssl dgst -sha256 -hex | sed 's/^ .* //'     来生成sha256。

如果超过了24小时,那就失效了,使用:kubeadm token create --print-join-command    来生成新的令牌。

8.校验集群:

执行:kubectl get nodes  , 查看几个节点是否正常(是否为Ready状态)

创建一个nginx:kubectl create deployment nginx --image=nginx

kubectl expose deployment nginx --port=80 --type=NodePort

kubectl get pod,svc

查看是否能正常访问

----------------------------------------------------------------------------------------------------

由于virtualBox默认把虚拟机文件放到了c盘的用户文件夹下,导致c盘空间变小,所以将虚拟机相关文件移动到别的盘,先要修改C:\Users\Administrator\.VirtualBox目录下的VirtualBox.xml和VirtualBox.xml-prev文件的MachineEntry标签的src属性(就是虚拟机文件夹的位置),改为别的盘符下定义的目录,然后重新启动virtualBox,在cmd命令行下执行:VBoxManage list hdds,查看虚拟机的存放位置改过来没,是正确的话,再到Vagrantfile的目录下执行:vagrant up。   我在启动几台虚拟机后,查看:kubectl get nodes,发现有个工作节点是NotReady状态的,查看:kubectl get cs,发现scheduler和controller-manager是Unhealthy的,根据网上的操作,修改/etc/kubernetes/manifests下的kube-controller-manager.yaml和kube-scheduler.yaml,将–port=0这一行注释掉(--port=0:关闭监听 http /metrics 的请求,同时 --address 参数无效,--bind-address 参数有效),我是复制了一份文件,然后将这行删了,然后systemctl restart kubelet,但是我发现还是和之前一样没变化,后来发现,是复制的yaml文件还不能放在/etc/kubernetes/manifests目录下,于是建了一个bak文件夹,将两个复制的yaml文件放了进去,再重启kubelet,发现就好了。

--------------------------------------------------------------------------------------------------------

kubeadm init主节点之后,加入第一个工作节点是正常的,但加入第二个工作节点时却失败了,在主节点执行:kubectl get nodes,发现第二个工作节点是NotReady的,在第二个节点执行:journalctl -f -u kubelet 查看kubelet的日志,发现报错说 Unable to update cni config: no networks found in /etc/cni/net.d,后来将主节点的/etc/cni/net.d复制到工作节点上,重启kubelet还是不行,最后实在没办法将主节点的calico.yaml复制到了第二个工作节点上,再执行:kubectl apply -f calico.yaml,重启kubelet ,发现好了。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,142评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,298评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,068评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,081评论 1 291
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,099评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,071评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,990评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,832评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,274评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,488评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,649评论 1 347
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,378评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,979评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,625评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,796评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,643评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,545评论 2 352

推荐阅读更多精彩内容