巧用标签+污点对节点划分资源池

背景

在日常使用k8s集群中,有时候需要某些节点只运行某些pod,既不希望有其他的pod调度过来,也不希望这些pod调度到别的其他节点上。比如说,有NodeA,只希望运行一个PodA,不想要PodB也调度到NodeA上,并且,不希望PodA会调度到NodeB上

针对上面的问题,其实我们可以使用标签+污点的方式去实现,而当使用多组标签+污点时,也就把节点资源划分一个个池了
接下来,我们看看标签和污点如何使用

1. 标签label

node资源的metadata.labels属性,给节点加上标签,比如test=test,pod通过nodeAffinitynodeSelector配置test: test,则pod会调度到含有该标签的节点上
kubectl label命令时,label的格式为key=value

1.1 示例

  1. 先给主机打上label
root@10 ~]# kubectl get no
NAME                   STATUS   ROLES    AGE     VERSION
10.10.101.170-master   Ready    master   7d21h   v1.17.2
10.10.101.171-slave    Ready    <none>   7d21h   v1.17.2
10.10.101.172-slave    Ready    <none>   7d21h   v1.17.2
10.10.101.173-slave    Ready    <none>   7d20h   v1.17.2
10.10.101.174-build    Ready    <none>   7d20h   v1.17.2
10.10.101.176-share    Ready    <none>   7d20h   v1.17.2
10.10.103.108-share    Ready    <none>   6d23h   v1.17.2

[root@10 ~]# kubectl get no -l test=test
No resources found in default namespace.

// 删除该label的命令是kubectl label no 10.10.101.176-share test-
[root@10 ~]# kubectl label no 10.10.101.176-share test=test
node/10.10.101.176-share labeled

[root@10 ~]# kubectl get no -l test=test
NAME                  STATUS   ROLES    AGE     VERSION
10.10.101.176-share   Ready    <none>   7d20h   v1.17.2
  1. 部署一个pod不指定和nodeAffinitynodeSelector
    预期:随机调度到一个节点上
// 未指定label的yaml文件
apiVersion: v1
kind: Pod
metadata:
  name: test-pod
  namespace: default
  labels:
    app: test-pod
spec:
  containers:
  - name: test-container
    image: busybox
    command: ['sh', '-c', 'echo Hello Harmonycloud! && sleep 3600']
[root@10 ~]# kubectl create -f busybox.yaml
pod/test-pod created

[root@10 ~]# kubectl get po -owide
NAME       READY   STATUS    RESTARTS   AGE   IP               NODE                  NOMINATED NODE   READINESS GATES
test-pod   1/1     Running   0          38s   10.168.216.168   10.10.103.108-share   <none>           <none>

多删除创建几次,可以发现test-pod会调度到不同的节点

  1. 部署一个pod指定nodeAffinitynodeSelector
    预期:只调度到10.10.101.176-share节点上
// 通过nodeSelector指定label的yaml文件如下
apiVersion: v1
kind: Pod
metadata:
  name: test-pod
  namespace: default
  labels:
    app: test-pod
spec:
  containers:
  - name: test-container
    image: busybox
    command: ['sh', '-c', 'echo Hello Harmonycloud! && sleep 3600']
  nodeSelector:
    test: test
// 按照上面的yaml添加nodeSelector
[root@10 ~]# kubectl edit po test-pod
pod "test-pod" edited

[root@10 ~]# kubectl get po -owide
NAME       READY   STATUS    RESTARTS   AGE   IP               NODE                  NOMINATED NODE   READINESS GATES
test-pod   1/1     Running   0          52s   10.168.216.170   10.10.101.176-share   <none>           <none>

无论test-pod删除再创建多少次,都会调度到10.10.101.176-share节点上

2. 污点taint

node资源的spec.taints属性,给节点加上污点,比如说node-role.kubernetes.io/slave=:NoSchedule,则只有配置了容忍该污点(tolerations)的pod才能调度到该节点上
污点的格式分为三段,key=value:effect,其中 effect 有三个策略:

  • NoSchedule:表示 pod 不会被调度到标记为 taints 的节点
  • PreferNoSchedule:NoSchedule 的软策略版本,表示尽量不调度到污点节点上去
  • NoExecute:该选项意味着一旦 Taint 生效,如该节点内正在运行的 pod 没有对应 tolerations 设置,会直接被逐出

示例

  1. 10.10.101.176-share加上污点node-role.kubernetes.io/slave=:NoSchedule
[root@10 ~]# kubectl describe no 10.10.101.176-share | grep -E '(Roles|Taints)'
Roles:              <none>
Taints:             <none>

[root@10 ~]# kubectl taint node 10.10.101.176-share node-role.kubernetes.io/slave=:NoSchedule
node/10.10.101.176-share tainted

[root@10 ~]# kubectl describe no 10.10.101.176-share | grep -E '(Roles|Taints)'
Roles:              <none>
Taints:             node-role.kubernetes.io/slave:NoSchedule
  1. 部署pod-test,通过label指定调度到10.10.101.176-share节点
    由于是NoSchedule策略,之前已在该节点上的podpod-test不会被驱逐,所以我们先把pod删了再创建
    预期:pod-test处于Pending状态
// 先删除原本的pod再创建
[root@10 ~]# kubectl delete po test-pod
pod "test-pod" deleted
[root@10 ~]# kubectl create -f busybox.yaml
pod/test-pod created
[root@10 ~]# kubectl get po -owide
NAME       READY   STATUS    RESTARTS   AGE   IP       NODE     NOMINATED NODE   READINESS GATES
test-pod   0/1     Pending   0          14s   <none>   <none>   <none>           <none>

// 查看Pending原因
[root@10 ~]# kubectl describe po test-pod
Events:
  Type     Reason            Age                From               Message
  ----     ------            ----               ----               -------
  Warning  FailedScheduling  49s (x2 over 49s)  default-scheduler  0/7 nodes are available: 1 node(s) had taints that the pod didn't tolerate, 6 node(s) didn't match node selector.
  1. test-pod加上tolerations
apiVersion: v1
kind: Pod
metadata:
  name: test-pod
  namespace: default
  labels:
    app: test-pod
spec:
  containers:
  - name: test-container
    image: busybox
    command: ['sh', '-c', 'echo Hello Harmonycloud! && sleep 3600']
  nodeSelector:
    test: test
  tolerations:
    - key: "node-role.kubernetes.io/slave"
      operator: "Exists"
      value: ""
      effect: "NoSchedule"
// 按照上面的yaml去添加tolerations
[root@10 ~]# kubectl edit po test-pod
pod "test-pod" edited

[root@10 ~]# kubectl get po -owide
NAME       READY   STATUS    RESTARTS   AGE   IP               NODE                  NOMINATED NODE   READINESS GATES
test-pod   1/1     Running   0          16s   10.168.216.171   10.10.101.176-share   <none>           <none>

可以看到,test-pod调度到10.10.101.176-share节点上了


节点资源池划分

节点资源池,是对k8s集群的所有节点进行逻辑层面的划分,每个池里的pod,应该要做到无论重启多少次,只会在该池的节点上,如何对pod调度进行控制,通过上面的示例,我们知道了:

  • 使用标签,可以使pod调度到预期的节点上
  • 使用污点,可以避免未容忍该污点的pod调度到节点上

如果只使用标签,固然我们可以把自己想要的pod调度到预期节点上,但是其他的pod也有可能调度到上面,因此只靠标签还不够,我们需要把其他的pod都驱逐,避免资源被占用。
反过来,如果只使用污点,的确能够避免其他的pod调度到预期节点上,但是我们自己的pod也可能调度到其他无污点的节点上,并不能保证只调度到我们的预期的节点上

至此,使用 标签 + 污点 ,我们的节点资源池划分也就可以实现了!

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 221,052评论 6 513
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,267评论 3 397
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 167,518评论 0 360
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,457评论 1 296
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,474评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,143评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,728评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,650评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,184评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,269评论 3 339
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,415评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 36,083评论 5 348
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,775评论 3 333
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,257评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,389评论 1 271
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,777评论 3 375
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,419评论 2 359

推荐阅读更多精彩内容

  • Label Label是附着到object上(例如Pod)的键值对。可以在创建object的时候指定,也可以在ob...
    陈靖_7314阅读 3,909评论 0 3
  • 一般情况下我们部署的 Pod 是通过集群的自动调度策略来选择节点的,默认情况下调度器考虑的是资源足够,并且负载尽量...
    祁恩达阅读 4,929评论 0 2
  • 1、选择节点(nodeSelector) nodeSelector是目前最为简单的一种pod运行时调度限制,目前在...
    七月流火2019阅读 443评论 0 0
  • 一、简介 Scheduler 是 kubernetes 的调度器,主要的任务是把定义的 pod 分配到集群的节点上...
    小波同学阅读 2,741评论 0 1
  • 我们在听故事的时候, 总是会问:后来呢? 是呀!后来呢? 我们曾爱...
    傻昕阅读 113评论 0 0