k8s搭建

1.0 准备

准备这个CentOS-7-x86_64-Minimal-1810
然后用vmware 或者virtualbox 安装他

1.1 切换阿里的yum源

#安装wget
yum install -y wget
#切换yum源
wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
yum makecache
#安装网络工具
yum install -y net-tools

1.2关闭防火墙

systemctl stop firewalld & systemctl disable firewalld

1.3关闭swap

#临时关闭
swapoff -a
#永久关闭,重启后生效
vi /etc/fstab
#注释以下代码

/dev/mapper/centos-swap swap ...

1.4 配置docker 源

yum -y install yum-utils
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
yum makecache

1.5 关闭selinux

#获取状态
getenforce
#暂时关闭
setenforce 0
#永久关闭 需重启
vi /etc/sysconfig/selinux
#注释以下代码

SELINUX=disabled

2.0 配置服务器

准备3台机子

#3台服务器ip信息

172.16.253.129
172.16.253.130
172.16.253.131

2.1 设置host

在3台服务器上都执行以下代码

echo "172.16.253.129 srv.master" >> /etc/hosts
echo "172.16.253.130 srv.etcd" >> /etc/hosts
echo "172.16.253.131 srv.node1" >> /etc/hosts

3.1搭建etcd

#登录etcd服务器
ssh root@172.16.253.130
#下载etcd
yum -y install etcd
#配置config
vi /etc/etcd/etcd.conf
#设置如下

ETCD_LISTEN_CLIENT_URLS="http://0.0.0.0:2379"
ETCD_ADVERTISE_CLIENT_URLS="http://srv.etcd:2379"

3.2 运行etcd

#设置开机启动 且启动服务
systemctl enable etcd && systemctl start etcd

[root@localhost ~]# netstat -nlp | grep etcd
tcp 0 0 127.0.0.1:2380 0.0.0.0:* LISTEN 7130/etcd
tcp6 0 0 :::2379

3.3配置etcd内网信息

#设置 (就像定义一个变量一样)
etcdctl -C http://172.16.253.130:2379 set /atomic.io/network/config '{"Network":"172.17.0.0/16"}' 
 
#获取
# etcdctl -C http://172.16.253.130:2379 get /atomic.io/network/config
{"Network":"172.17.0.0/16"}

注:
172.17.0.0/16这个是节点主机Docker网卡的网段。
/atomic.io/network/config类似定义的变量名,在节点机中Flanneld配置里的FLANNEL_ETCD_PREFIX项对应。

4.1 master服务器上安装服务

#登录master服务器
ssh root@172.16.253.129
#安装服务
yum -y install kubernetes-master
#配置config
vi /etc/kubernetes/apiserver
# 配置如下

KUBE_API_ADDRESS="--insecure-bind-address=0.0.0.0"
KUBE_ETCD_SERVERS="--etcd-servers=http://srv.etcd:2379"

#配置config
vi  /etc/kubernetes/config
#配置如下

KUBE_MASTER="--master=http://srv.master:8080"

4.3 启动

systemctl enable kube-apiserver kube-scheduler kube-controller-manager
systemctl start kube-apiserver kube-scheduler kube-controller-manager

[root@localhost ~]# netstat -nlpt | grep kube
tcp6 0 0 :::6443 :::* LISTEN 15190/kube-apiserve
tcp6 0 0 :::10251 :::* LISTEN 15191/kube-schedule
tcp6 0 0 :::10252 :::* LISTEN 15192/kube-controll
tcp6 0 0 :::8080 :::* LISTEN 15190/kube-apiserve

4.4 测试

curl http://172.16.253.129:8080/version

4.5 若创建pod认证失败

#修改配置
vi /etc/kubernetes/apiserver
#修改如下文

KUBE_ADMISSION_CONTROL="--admission-control=NamespaceLifecycle,NamespaceExists,LimitRanger,SecurityContextDeny,ServiceAccount,ResourceQuota"

在该行删除ServiceAccount SecurityContextDeny 这2个选项

#重启服务
systemctl restart kube-apiserver

删除pod,重新创建

5.0部署node

ssh root@172.16.253.131

5.1安装docker

#安装docker 
yum -y install docker
#开机自启 并启动
systemctl enable docker  && systemctl start docker
[root@localhost ~]# ip a s docker0
3: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default 
    link/ether 02:42:35:d7:43:6f brd ff:ff:ff:ff:ff:ff
    inet 172.17.0.1/16 scope global docker0
       valid_lft forever preferred_lft forever

#修改config
vi  /etc/docker/daemon.json
#设置如下

"registry-mirrors": ["https://registry.docker-cn.com"]

#重启
systemctl restart docker
#查看仓库源是否设置成功
docker info

5.2部署flannel

#安装
yum -y install flannel
#修改配置
vi /etc/sysconfig/flanneld
#修改如下

FLANNEL_ETCD_ENDPOINTS="http://srv.etcd:2379"
FLANNEL_ETCD_PREFIX="/atomic.io/network"

#开机自启并启动服务
systemctl enable flanneld && systemctl restart flanneld`
[root@localhost ~]# netstat -nlp | grep flanneld
udp        0      0 172.16.253.131:8285     0.0.0.0:*                           7670/flanneld     

5.3 部署k8s-node

#安装服务
yum -y install kubernetes-node
#修改配置
vi /etc/kubernetes/config
#修改如下文

KUBE_MASTER="--master=http://srv.master:8080"

#修改配置
vi /etc/kubernetes/kubelet
#修改如下

KUBELET_HOSTNAME="--hostname-override=srv.node1"
KUBELET_API_SERVER="--api-servers=http://srv.master:8080"

#启动服务
systemctl enable kubelet kube-proxy  && systemctl start kubelet kube-proxy
[root@localhost ~]# netstat -ntlp | grep kube
tcp        0      0 127.0.0.1:10248         0.0.0.0:*               LISTEN      7838/kubelet        
tcp        0      0 127.0.0.1:10249         0.0.0.0:*               LISTEN      7842/kube-proxy     
tcp        0      0 127.0.0.1:10250         0.0.0.0:*               LISTEN      7838/kubelet        
tcp        0      0 127.0.0.1:10255         0.0.0.0:*               LISTEN      7838/kubelet        
tcp6       0      0 :::4194                 :::*                    LISTEN      7838/kubelet  

5.4 处理潜在bug

创建pod 节点若出现/etc/docker/certs.d/registry.access.redhat.com/redhat-ca.crt: no such file or directory

以下解决方案

yum install *rhsm* -y

wget http://mirror.centos.org/centos/7/os/x86_64/Packages/python-rhsm-certificates-1.19.10-1.el7_4.x86_64.rpm

rpm2cpio python-rhsm-certificates-1.19.10-1.el7_4.x86_64.rpm | cpio -iv --to-stdout ./etc/rhsm/ca/redhat-uep.pem | tee /etc/rhsm/ca/redhat-uep.pem

docker pull registry.access.redhat.com/rhel7/pod-infrastructure:latest

6.0验证

#登录到master服务器上 
#查看节点信息
kubectl get nodes

[root@localhost ~]# kubectl get nodes
NAME STATUS AGE
srv.node1 Ready 1m

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 版权声明:原创作品,谢绝转载!否则将追究法律责任。 前言 最近中国和印度的局势也是愈演愈烈。作为一个爱国青年我有些...
    李伟铭MIng阅读 2,078评论 0 5
  • 安装前规划 etcd1服务器 172.16.0.5 etcdhaproxy(apiserver做负载)keepal...
    goearth1501阅读 1,774评论 0 3
  • 前言 尝到k8s甜头以后,我们就想着应用到生产环境里去,以提高业务迭代效率,可是部署在生产环境里有一个要求,就是k...
    我的橙子很甜阅读 12,997评论 0 15
  • 一段视频刺痛了我的感官 我的眼在流泪 心在滴血 浑身都在颤抖 而且真的是如鲠在喉 “妈妈,妈妈, 我不让你走, 我...
    梅子青青_d4b3阅读 543评论 0 1
  • 很多人都看着别人的生活,看着别人而羡慕自己却不愿意改变。改变是自己而不是别人,世界再优秀的人都是无法来改变一个人的...
    富足春天阅读 227评论 0 0