K8s之Pod的优先级调度

介绍

优先级调度其实没有那么常用,但是既然K8s提供出来了,我们还是了解一下,在1.8版本之前,当集群资源不足时又有新的Pod创建请求,那么这个Pod会一直处于Pending状态,就算是这个Pod非常的重要,非部署不可,那也没办法,你只能删除一些Pod释放一些资源才能被调度成功。

为了解决该问题,在1.8版本就引入了优先级抢占调度策略,如果新调度的优先级非常高,那么集群会尝试释放优先级低的Pod以保证新的Pod可以正常调度,这种方式称为抢占式调度,1.11版本升级为Beta版本,1.14版本之后成为正式版本

调度策略

调度策略有两种一种是驱逐( Eviction )一种是抢占( Preemtion ),两种方式的场景不同,效果也不同

Eviction 是kubelet进程的行为,当该Node上的资源不足时,kubelet就会执行驱逐动作,配合优先级,将优先级低的Pod驱逐,如果优先级都一样,那么实际使用的资源量超过申请量最大倍数的高耗能 Pod 会被首先驱逐

Preemption 是 Scheduler 执行调度的行为,当有新的Pod创建,但是因为资源不够无法正常调度,调度器便会驱逐部分优先级较低的Pod来满足新Pod的需求

创建权重

权重是区分优先级的关键因素

yaml定义

通过yaml方式定义一个PriorityClass,它不属于任何命名空间

app-priority.yaml

apiVersion: scheduling.k8s.io/v1
kind: PriorityClass
metadata:
  name: app-priority
value: 100 # 优先级为100,数字越大,优先级越高
globalDefault: false
description: " app test priority."
属性分析

PriorityClass不受命名空间约束

value越大优先级越高,但是不要超过10亿,超过10亿的通常是不该被驱逐的Pod,一般K8s内部使用

查看系统自带的优先级

[root@master ~]# kubectl get PriorityClass
NAME                      VALUE        GLOBAL-DEFAULT   AGE
system-cluster-critical   2000000000   false            52d
system-node-critical      2000001000   false            52d

查看kube-apiserver-master使用的优先级

[root@master ~]# kubectl describe -pod kube-apiserver-master -n kube-system
Priority:             2000001000
Priority Class Name:  system-node-critical

没有设置优先级的Pod默认优先级为0

globalDefault 给没有设置优先级的Pod使用,整个系统只能设置一个globalDefault=true的PriorityClass

description 描述什么时候应该使用该优先级

创建

创建优先级app-priority

# 创建优先级
[root@master priority]# kubectl create -f app-priority.yaml 
priorityclass.scheduling.k8s.io/app-priority created

# 查看创建是否成功
[root@master priority]# kubectl get PriorityClass
NAME                      VALUE        GLOBAL-DEFAULT   AGE
app-priority              100          false            8s
system-cluster-critical   2000000000   false            52d
system-node-critical      2000001000   false            52d

使用优先级

这里不模拟资源不足的场景,我们结合前面讲到的亲和性调度与污点来模拟效果

给node02设置上一个污点,使得Pod不能调度进来,给node01运行一个带有标签env=pro的Pod,再创建一个新的Pod使用了优先级app-priority,并且通过反亲和性设置不能调度到带有标签env=pro的Pod所在Node,那么新Pod将没有节点可调度,但是由于它的优先级高,那么会不会丢车保帅,将node01上的Pod驱逐呢?

下面来验证一下

创建带有标签env=pro的Pod,yaml配置如下

target-pod.yaml

apiVersion: v1
kind: Pod
metadata:
  name: target-pod
  labels:
    env: pro
spec:
  containers:
  - name: nginx
    image: nginx
    imagePullPolicy: IfNotPresent # 本地有不拉取镜像
  nodeName: node01 # 将target放到node01

创建带有优先级的Pod,yaml如下

priority-pod.yaml

apiVersion: v1
kind: Pod
metadata:
  name: priority-pod
  labels:
    env: pro
spec:
  containers:
  - name: nginx
    image: nginx
    imagePullPolicy: IfNotPresent # 本地有不拉取镜像
  affinity:
    podAntiAffinity: # 使用Pod反亲和性
      requiredDuringSchedulingIgnoredDuringExecution:  # 硬限制
      - labelSelector:
          matchExpressions:
          - key: env
            operator: In
            values: ["pro"]
        topologyKey: kubernetes.io/hostname
  priorityClassName: app-priority

给node02创建污点,模拟不可用

创建target-pod,观察是否运行正常

启动priority-pod,此时立刻查看Pod详情,看target-pod是否正在被驱逐

# 给node02创建污点,模拟不可用
[root@master priority]# kubectl taint node node02 app=true:NoExecute
node/node02 tainted

# 启动traget-pod
[root@master priority]# kubectl create -f target-pod.yaml
pod/target-pod created
[root@master priority]# kubectl get pod -o wide
NAME         READY   STATUS    RESTARTS   AGE   IP            NODE     NOMINATED NODE   READINESS GATES
target-pod   1/1     Running   0          11s   10.244.1.97   node01   <none>           <none>

# 启动priority-pod并且立刻查看Pod详情,target-pod正在被驱逐
[root@master priority]# kubectl create -f priority-pod.yaml && kubectl get pod -o wide
pod/priority-pod created
NAME           READY   STATUS        RESTARTS   AGE   IP            NODE     NOMINATED NODE   READINESS GATES
priority-pod   0/1     Pending       0          0s    <none>        <none>   node01           <none>
target-pod     1/1     Terminating   0          15s   10.244.1.99   node01   <none>           <none>

# 再次查看Pod详情,priority-pod运行成功,target-pod被驱逐
[root@master priority]# kubectl get pod -o wide
NAME           READY   STATUS    RESTARTS   AGE   IP             NODE     NOMINATED NODE   READINESS GATES
priority-pod   1/1     Running   0          8s    10.244.1.100   node01   <none>           <none>

需要注意的是,新的Pod并不会立刻就被调度到Node节点, 调度器只会将抢占者的 spec.nominatedNodeName 字段,设置为被抢占的 Node 的名字 ,等待下一轮周期才决定要不要调度到抢占的Node节点,原因是被驱逐的Pod是通过 DELETE API 来删除被抢占的 Pod,一般的应用都有优雅停机时长,在这段时间里可调度性可能会发生变化,也许都不需要抢占了,所以这样设置还是比较合理,但是如果这段时间有更高级别的Pod来抢, 那么调度器就会清空原抢占者的 spec.nominatedNodeName 字段,保证优先级更高的Pod进行调度,当K8s有多个调度器,这种方式可能会陷入死循环,所以优先级调度其实不太常用。


优先级调度就介绍到这里,后面介绍Pod控制器

欢迎关注,学习不迷路!

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,793评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,567评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,342评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,825评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,814评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,680评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,033评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,687评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,175评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,668评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,775评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,419评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,020评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,978评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,206评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,092评论 2 351
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,510评论 2 343

推荐阅读更多精彩内容