视频链接
云原生Java架构师的第一课K8s+Docker+KubeSphere+DevOps_哔哩哔哩_bilibili
基础架构
基础架构
Namespace
Namespace(命名空间),用于隔离k8s资源
通过命令行创建命名空间
# 创建/删除命名空间
kubectl create ns hello
# 删除命名空间,删除命名空间时,会将该命名空间下部署的所有资源一并删除
kubectl delete ns hello
# 查询所有命名空间
kubectl get ns
通过Yaml文件创建命名空间,使用kubectl apply -f 文件名.yaml添加配置
apiVersion: v1
kind: Namespace
metadata:
name: hello
通过Yaml文件添加或删除资源
kubectl apply -f 文件名.yaml
kubectl delete -f 文件名.yaml
Pod
Pod是指运行中的一组容器(一个Pod可以装多个容器),是k8s中应用的最小单位。
# 查询所有pod
kubectl get pods -A
# 查询该命名空间下的所有pod
kubectl get pods -n 命名空间
# 创建pod
kubectl run mynginx --image=nginx
# 删除pod
kubectl delete pod mynginx
# 查看pod运行日志
kubectl logs mynginx
# k8s会为每一个pod创建一个Ip
kubectl get pod -o wide
# 集群中的任意一个机器以及任意的应用都能通过Pod分配的ip来访问这个Pod
curl 192.168.169.136
# 进入容器
kubectl exec -it mynginx -- /bin/bash
# 输出pod的详细信息
kubectl describe pod mynginx
通过Yaml文件创建Pod
apiVersion: v1
kind: Pod
metadata:
labels:
run: mynginx
name: mynginx
# namespace: default
spec:
containers:
- image: nginx
name: mynginx
# 一个pod部署多个容器
apiVersion: v1
kind: Pod
metadata:
labels:
run: myapp
name: myapp
spec:
containers:
- image: nginx
name: nginx
- image: tomcat:8.5.68
name: tomcat
Deployment
控制Pod,使Pod拥有多副本,自愈,扩缩容等功能
# 普通方式创建pod
kubectl run mynginx --image=nginx
# deployment方式创建pod,pod拥有自愈能力,被delete后会重新部署
kubectl create deployment mytomcat --image=tomcat:8.5.68
# deployment方式创建pod,多个副本
kubectl create deployment mytomcat --image=tomcat:8.5.68 --replicas=3
# 删除deployment
kubectl delete deployment mytomcat
# 查询deployment
kubectl get deployment
使用yaml文件创建Deployment多副本
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: my-dep
name: my-dep
spec:
replicas: 3
selector:
matchLabels:
app: my-dep
template:
metadata:
labels:
app: my-dep
spec:
containers:
- image: nginx
name: nginx
扩缩容
kubectl scale -n 命名空间 deployment mynginx --replicas=5
Deployment滚动更新
# 滚动更新
kubectl set image deployment/my-dep nginx=nginx:1.16.1 --record
kubectl rollout status deployment/my-dep
版本回退
#历史记录
kubectl rollout history deployment/my-dep
#查看某个历史详情
kubectl rollout history deployment/my-dep --revision=2
#回滚(回到上次)
kubectl rollout undo deployment/my-dep
#回滚(回到指定版本)
kubectl rollout undo deployment/my-dep --to-revision=2
其他工作负载
除了Deployment,k8s还有 StatefulSet 、DaemonSet 、Job 等 类型资源。我们都称为 工作负载。
有状态应用使用 StatefulSet 部署,无状态应用使用 Deployment 部署
https://kubernetes.io/zh/docs/concepts/workloads/controllers/
Service
将一组Pods公开为网络服务的抽象方法
# 将服务暴露出去
kubectl expose deployment my-dep --port=8000 --target-port=80 --type=ClusterIP
# 查询service
kubectl get service
ClusterIP(默认就是ClusterIp)
这种方式提供的IP是k8s集群的局域网IP,只能在集群内访问
kubectl expose deployment my-dep --port=8000 --target-port=80 --type=ClusterIP
apiVersion: v1
kind: Service
metadata:
labels:
app: my-dep
name: my-dep
spec:
ports:
- port: 8000 # 容器端口
protocol: TCP
targetPort: 80 # servcie端口
selector:
app: my-dep
type: ClusterIP
NodePort
这种方式会开放k8s集群所有机器的端口(NodePort范围在 30000-32767 之间),通过任意节点IP:端口进行访问
kubectl expose deployment my-dep --port=8000 --target-port=80 --type=NodePort
apiVersion: v1
kind: Service
metadata:
labels:
app: my-dep
name: my-dep
spec:
ports:
- port: 8000
protocol: TCP
targetPort: 80
selector:
app: my-dep
type: NodePort
Ingress(k8s网关,就是nginx)
1、安装
wget https://raw.githubusercontent.com/kubernetes/ingress-nginx/controller-v0.47.0/deploy/static/provider/baremetal/deploy.yaml
# yaml文件下载后修改下ingress镜像拉取的地址,避免镜像拉取失败,参考下面的图片
# registry.cn-hangzhou.aliyuncs.com/lfy_k8s_images/ingress-nginx-controller:v0.46.0
# 检查安装的结果
kubectl get pod,svc -n ingress-nginx
# 最后别忘记把svc暴露的端口要放行
修改拉取ingress镜像的地址
启动成功后,可以看到ingress对80以及443端口做了映射
使用
官网地址:https://kubernetes.github.io/ingress-nginx/
使用ingress部署ngxinx以及tomcat
# 部署nginx,并且创建service将服务暴露
kubectl create deployment my-nginx --image=nginx
kubectl expose deployment my-nginx --port=8000 --target-port=80
# 部署tomcat,并且创建service将服务暴露
kubectl create deployment my-tomcat --image=tomcat:8.5.68
kubectl expose deployment my-tomcat --port=8080 --target-port=8080
部署nginx成功
部署tomcat成功
# 通过yaml文件方式部署ngxin以及tomcat
apiVersion: apps/v1
kind: Deployment
metadata:
name: my-nginx
spec:
replicas: 2
selector:
matchLabels:
app: my-nginx
template:
metadata:
labels:
app: my-nginx
spec:
containers:
- name: nginx
image: nginx
# ports:
# - containerPort: 9000
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: my-tomcat
spec:
replicas: 2
selector:
matchLabels:
app: my-tomcat
template:
metadata:
labels:
app: my-tomcat
spec:
containers:
- name: tomcat
image: tomcat:8.5.68
# ports:
# - containerPort: 9000
---
apiVersion: v1
kind: Service
metadata:
labels:
app: my-nginx
name: my-nginx
spec:
selector:
app: my-nginx
ports:
- port: 8000
protocol: TCP
targetPort: 80
---
apiVersion: v1
kind: Service
metadata:
labels:
app: my-tomcat
name: my-tomcat
spec:
selector:
app: my-tomcat
ports:
- port: 8080
protocol: TCP
targetPort: 8080
配置ingress域名访问
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: ingress-host-bar
spec:
ingressClassName: nginx
rules:
- host: "nginx.ingress.com"
http:
paths:
- pathType: Prefix
path: "/"
backend:
service:
name: my-nginx
port:
number: 8000
- host: "tomcat.ingress.com"
http:
paths:
- pathType: Prefix
path: "/" # 把请求会转给下面的服务,下面的服务一定要能处理这个路径,不能处理就是404
backend:
service:
name: my-tomcat
port:
number: 8080
配置成功后,通过kubeclt get ingress命令查看所有ingress配置
本地测试的话修改下hosts文件
查看ingress对外开放的端口
测试连通性
ingress请求转发
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
annotations:
nginx.ingress.kubernetes.io/rewrite-target: /$2 #启用请求转发, /$2作用是以/做正则分组匹配,剔除第二个分组的路径,会将a.com/b转发到a.com。a.com/b/c转发到a.com/c
name: ingress-host-bar
spec:
ingressClassName: nginx
rules:
- host: "tomcat.ingress.com"
http:
paths:
- pathType: Prefix
path: "/nginx(/|$)(.*)" #
backend:
service:
name: my-nginx
port:
number: 8000
访问结果
如果没有配置转发的话,"/nginx"路径下无html页面正常来说应该会返回404.但是由于这里配置了请求转发,"/nginx"路径的请求被转发到根目录,所以返回了ngxin的首页
ingress流量限制
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: ingress-limit-rate
annotations:
nginx.ingress.kubernetes.io/limit-rps: "1" # 流量限制,一秒只处理一个请求
spec:
ingressClassName: nginx
rules:
- host: "nginx.ingress.com"
http:
paths:
- pathType: Exact
path: "/"
backend:
service:
name: my-nginx
port:
number: 8000
频繁请求测试结果
配置和存储
NFS,网络文件系统
NFS(Network File System,网络文件系统)是当前主流异构平台共享文件系统之一。主要应用在UNIX环境下。最早是由Sun Microsystems开发,现在能够支持在不同类型的系统之间通过网络进行文件共享,广泛应用在FreeBSD、SCO、Solaris等异构操作系统平台,允许一个系统在网络上与他人共享目录和文件。通过使用NFS,用户和程序可以像访问本地文件一样访问远端系统上的文件,使得每个计算机的节点能够像使用本地资源一样方便地使用网上资源。换言之,NFS可用于不同类型计算机、操作系统、网络架构和传输协议运行环境中的网络文件远程访问和共享。 [4]
NFS的工作原理是使用客户端/服务器架构,由一个客户端程序和服务器程序组成。服务器程序向其他计算机提供对文件系统的访问,其过程称为输出。NFS客户端程序对共享文件系统进行访问时,把它们从NFS服务器中“输送”出来。文件通常以块为单位进行传输。其大小是8KB(虽然它可能会将操作分成更小尺寸的分片)。NFS传输协议用于服务器和客户机之间文件访问和共享的通信,从而使客户机远程地访问保存在存储设备上的数据。
基于NFS挂载共享目录
- 1.所有节点执行
# 所有机器安装
yum install -y nfs-utils
- 2.主节点执行
# nfs配置文件
echo "/nfs/data/ *(insecure,rw,sync,no_root_squash)" > /etc/exports
mkdir -p /nfs/data
systemctl enable rpcbind --now
systemctl enable nfs-server --now
# 配置生效
exportfs -r
- 3.从节点
# 显示主节点共享的目录
showmount -e 主节点ip地址
mkdir -p /nfs/data
# 挂载共享目录
mount -t nfs 主节点IP:/nfs/data /nfs/data
# 写入测试文件
echo "hello nfs server" > /nfs/data/test.txt
- 4.给Deployment挂载数据盘
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: my-nginx
name: my-nginx
spec:
replicas: 2
selector:
matchLabels:
app: my-nginx
template:
metadata:
labels:
app: my-nginx
spec:
containers:
- image: nginx
name: nginx
volumeMounts:
- name: html
mountPath: /usr/share/nginx/html
volumes:
- name: html
nfs:
server: 主节点IP地址
path: /nfs/data/nginx
ConfigMap
所有应用配置的抽象,便于统一管理
- 通过命令行创建ConfigMap
kubectl create cm redis-conf --from-file=redis.conf
- 通过yaml文件创建ConfigMap
# data是key-value形式,具体配置保存在其中,key:默认是文件名 value:配置文件的内容
apiVersion: v1
data:
redis.conf: |
appendonly yes
maxmemory 2mb
kind: ConfigMap
metadata:
name: redis-conf
namespace: default
- 使用kubectl get cm查询所有ConfigMap
- 创建Pod,挂载ConfigMap
apiVersion: v1
kind: Pod
metadata:
name: redis
spec:
containers:
- name: redis
image: redis
command: #启动时附加参数
- redis-server
- "/redis-master/redis.conf" #指的是redis容器内部的位置
ports:
- containerPort: 6379
volumeMounts:
- mountPath: /redis-master #会为容器创建/redis-master文件夹
name: config
volumes:
- name: config # 名字与volumeMounts中一致,配置文件会保存到volumeMounts声明的路径下
configMap:
name: redis-conf # 这里与创建的ConfigMap的name一致
items:
- key: redis.conf # 这里指定ConfigMap中data的key
path: redis.conf
- 检查配置
# 进入容器内部查看配置文件是否存在
kubectl exec -it redis -- /bin/bash
cd /redis-master
cat redis.conf
# 进入redis-cli查看配置是否生效
kubectl exec -it redis -- redis-cli
127.0.0.1:6379> CONFIG GET appendonly
127.0.0.1:6379> CONFIG GET requirepass
- ConfigMap常用命令
# 查询所有ConfigMap
kubectl get cm
# 修改指定的ConfigMap,修改ConfigMap后,所有使用了该ConfigMap进行启动的容器中的配置文件会一并被修改
kubectl edit cm ConfigMap声明的name
# 删除ConfigMap
kubectl delete cm ConfigMap声明的name
Secret
Secret 对象类型用来保存敏感信息,例如密码、OAuth 令牌和 SSH 密钥。 将这些信息放在 secret 中比放在 Pod 的定义或者 容器镜像 中来说更加安全和灵活。
- 创建Secret
kubectl create secret docker-registry leifengyang-docker \
--docker-username=leifengyang \
--docker-password=Lfy123456 \
--docker-email=534096094@qq.com
- 启动Pod指定Secret
apiVersion: v1
kind: Pod
metadata:
name: my-nginx
spec:
containers:
- name: my-nginx
image: nginx
imagePullSecrets:
- name: leifengyang-docker
PV&PVC
PV:持久卷(Persistent Volume),将应用需要持久化的数据保存到指定位置
PVC:持久卷申明(Persistent Volume Claim),申明需要使用的持久卷规格
- 创建PV
apiVersion: v1
kind: PersistentVolume # 指定类型为PV
metadata:
name: pv01-10m
spec:
capacity:
storage: 500M # 指定存储空间大小为500M
accessModes:
- ReadWriteMany
storageClassName: nfs
nfs:
path: /nfs/data/01
server: NFS主机IP
- 创建PVC
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name: nginx-pvc
spec:
accessModes:
- ReadWriteMany
resources:
requests:
storage: 200Mi # PVC申请200M空间
storageClassName: nfs
- 创建Pod并绑定PVC
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: nginx-deploy-pvc
name: nginx-deploy-pvc
spec:
replicas: 2
selector:
matchLabels:
app: nginx-deploy-pvc
template:
metadata:
labels:
app: nginx-deploy-pvc
spec:
containers:
- image: nginx
name: nginx
volumeMounts:
- name: html
mountPath: /usr/share/nginx/html
volumes:
- name: html
persistentVolumeClaim: # 绑定PVC后会自动分配到合适的PV中
claimName: nginx-pvc