kubeadm 部署 kubernetes 1.23.1集群

集群架构

hostname os version ip cpu men
master centos 7.8 192.168.11.186 6 8g
node1 centos 7.8 192.168.11.184 4 4g
node2 centos 7.8 192.168.11.183 4 4g

节点配置前准备

1.开启免密钥认证
$ ssh-keygen
$ ssh-coyid node1,node2
2.编辑/etc/hosts
192.168.11.186 master
192.168.11.184 node1
192.168.11.183 node2
$ scp /etc/hosts  node1:/etc/
$ scp /etc/hosts  node2:/etc/
3.编辑 /etc/sysctl.d/k8s.conf 将流量传递到iptables链
net.bridge.bridge-nf-call-iptables = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.ip_forward                 = 1
$ sysctl --system
$ scp /etc/sysctl.d/k8s.conf  node1:/etc/
$ scp /etc/sysctl.d/k8s.conf  node2:/etc/
4.关闭防火墙
for i in `cat /etc/hosts|awk '{print $2}'`;
do
ssh $i systemctl stop firewalld; systemctl disabled firewalld
done
5.关闭SELINX
for i in `cat /etc/hosts|awk '{print $2}'`;
do
ssh $i setenforce 0
ssh $i sed -i "s/SELINUX=enforcing/SELINUX=disabled/g" /etc/selinux/config
done

部署docker

#一下步骤三个节点都需要
1.安装驱动工具
yum install -y yum-utils    device-mapper-persistent-data   lvm2
2.添加docker源
yum-config-manager    --add-repo    "http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo"
3.启用源
yum-config-manager --enable docker-ce-nightly
4.安装docker
yum install docker-ce docker-ce-cli containerd.io -y
5.启动docker
systemctl enable docker && systemctl start docker

部署kubernetes

#一下步骤三个节点都需要
1.添加源
vim /etc/yum.repos.d/kubernetes.repo
[kubernetes] 
name=Kubernetes 
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64 
enabled=1 
gpgcheck=0 
repo_gpgcheck=0 
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg         http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
2.安装工具
yum install kubeadm kubelet kubectl -y
3.开机自启kubelet
systemctl enable kubelet

master初始化 kubernetes

$ kubeadm init  --apiserver-advertise-address=192.168.11.186  --image-repository \
   registry.aliyuncs.com/google_containers  --kubernetes-version=v1.23.1   \
   --service-cidr=10.96.0.0/16  --pod-network-cidr=10.244.0.0/16
#输出一下信息
Your Kubernetes control-plane has initialized successfully!

To start using your cluster, you need to run the following as a regular user:

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

Alternatively, if you are the root user, you can run:

  export KUBECONFIG=/etc/kubernetes/admin.conf

You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/

Then you can join any number of worker nodes by running the following on each as root:

kubeadm join 192.168.11.186:6443 --token 0fq2s6********* \
        --discovery-token-ca-cert-hash sha256:aa861aabecf********************
2.部署flannel网络插件
$ kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
#注 有时应网络问题不能访问这个地址
添加dns >>/etc/hosts,或者提前下载
185.199.110.133  raw.githubusercontent.com

node节点jojn

$ kubeadm join 192.168.11.186:6443 --token 0fq2s6********* \
        --discovery-token-ca-cert-hash sha256:aa861aabecf

查看集群信息

$ kubectl get pods --all-namespaces
NAMESPACE     NAME                            READY   STATUS    RESTARTS   AGE
kube-system   coredns-6d8c4cb4d-6q2l8         1/1     Running   0          30m
kube-system   coredns-6d8c4cb4d-vgtr4         1/1     Running   0          30m
kube-system   etcd-master                     1/1     Running   0          31m
kube-system   kube-apiserver-master           1/1     Running   0          31m
kube-system   kube-controller-manager-master   1/1     Running   0          31m
kube-system   kube-flannel-ds-6s4mn           1/1     Running   0          27m
kube-system   kube-flannel-ds-nbc8f           1/1     Running   0          27m
kube-system   kube-flannel-ds-rpp6h           1/1     Running   0          27m
kube-system   kube-proxy-4cfh2                1/1     Running   0          30m
kube-system   kube-proxy-nfbgk                1/1     Running   0          30m
kube-system   kube-proxy-vj8m4                1/1     Running   0          30m
kube-system   kube-scheduler-master           1/1     Running   0          31m

$ kubectl get nodes
NAME         STATUS   ROLES                  AGE   VERSION
master   Ready    control-plane,master       31m   v1.23.1
node1        Ready    <none>                 31m   v1.23.1
node2        Ready    <none>                 32m   v1.23.1
$ kubectl get namespace
NAME              STATUS   AGE
default           Active   38m
kube-node-lease   Active   38m
kube-public       Active   38m
kube-system       Active   38m

测试

1.创建pod
$ kubectl create deployment nginx --image=nginx
$ kubectl get pods
NAME                     READY   STATUS    RESTARTS   AGE
nginx-85b98978db-njf42   1/1     Running   0          32s
2.修改pod副本数
$ kubectl scale deployment nginx --replicas=3
$ kubectl get pods
NAME                     READY   STATUS    RESTARTS   AGE
nginx-85b98978db-88pmq   1/1     Running   0          27s
nginx-85b98978db-ksdzb   1/1     Running   0          27s
nginx-85b98978db-njf42   1/1     Running   0          8m49s
3.暴露端口
$ kubectl expose deployment nginx --port=80 --type=NodePort
$ kubectl get services
NAME         TYPE        CLUSTER-IP     EXTERNAL-IP   PORT(S)        AGE
kubernetes   ClusterIP   10.96.0.1      <none>        443/TCP        48m
nginx        NodePort    10.96.72.198   <none>        80:32335/TCP   5m2s
$ curl 10.96.72.198
<h1>Welcome to nginx!</h1>
4. 常用命令
kubectl cluster-info #获取集群信息
kubectl api-resources #  查看资源
kubectl get nodes #  查看node节点
kubectl get pods #  查看pod
kubectl get pods -n kube-system #  查看命名空间kube-system下的pod

遇到的问题

image.png
错误信息
“Failed to run kubelet” err=“failed to run Kubelet: misconfiguration: kubelet cgroup driver: “systemd” is different from dock…er: “cgroupfs””
原因
docker和kubernetes所使用的cgroup不一致导致

# cat /etc/docker/daemon.json
{
  "registry-mirrors": ["https://yours.mirror.aliyuncs.com"],
  "exec-opts": ["native.cgroupdriver=systemd"]
}

重启docker 重新kubeadm init && kubectl join
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,284评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,115评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,614评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,671评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,699评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,562评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,309评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,223评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,668评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,859评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,981评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,705评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,310评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,904评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,023评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,146评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,933评论 2 355

推荐阅读更多精彩内容