使用 tke-autoscaling-placeholder 实现秒级弹性伸缩的方法

这篇文章主要介绍了使用 tke-autoscaling-placeholder 实现秒级弹性伸缩的方法,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下

背景

当 TKE 集群配置了节点池并启用了弹性伸缩,在节点资源不够时可以触发节点的自动扩容 (自动买机器并加入集群),但这个扩容流程需要一定的时间才能完成,在一些流量突高的场景,这个扩容速度可能会显得太慢,影响业务。tke-autoscaling-placeholder可以用于在 TKE 上实现秒级伸缩,应对这种流量突高的场景。

原理是什么?

tke-autoscaling-placeholder实际就是利用低优先级的 Pod 对资源进行提前占位(带 request 的 pause 容器,实际不怎么消耗资源),为一些可能会出现流量突高的高优先级业务预留部分资源作为缓冲,当需要扩容 Pod 时,高优先级的 Pod 就可以快速抢占低优先级 Pod 的资源进行调度,而低优先级的tke-autoscaling-placeholder的 Pod 则会被 "挤走",状态变成 Pending,如果配置了节点池并启用弹性伸缩,就会触发节点的扩容。这样,由于有了一些资源作为缓冲,即使节点扩容慢,也能保证一些 Pod 能够快速扩容并调度上,实现秒级伸缩。要调整预留的缓冲资源多少,可根据实际需求调整tke-autoscaling-placeholder的 request 或副本数。

有什么使用限制?

使用该应用要求集群版本在 1.18 以上。

如何使用?

安装 tke-autoscaling-placeholder

在应用市场找到tke-autoscaling-placeholder,点击进入应用详情,再点创建应用:

选择要部署的集群 id 与 namespace,应用的配置参数中最重要的是replicaCount与resources.request,分别表示tke-autoscaling-placeholder的副本数与资源论坛每个副本占位的资源大小,它们共同决定缓冲资源的大小,可以根据流量突高需要的额外资源量来估算进行设置。

最后点击创建,你可以查看这些进行资源占位的 Pod 是否启动成功:

1

2

3

4

5

6

7

8

9

10

11

$ kubectl get pod -n default

tke-autoscaling-placeholder-b58fd9d5d-2p6ww  1/1   Running  0     8s

tke-autoscaling-placeholder-b58fd9d5d-55jw7  1/1   Running  0     8s

tke-autoscaling-placeholder-b58fd9d5d-6rq9r  1/1   Running  0     8s

tke-autoscaling-placeholder-b58fd9d5d-7c95t  1/1   Running  0     8s

tke-autoscaling-placeholder-b58fd9d5d-bfg8r  1/1   Running  0     8s

tke-autoscaling-placeholder-b58fd9d5d-cfqt6  1/1   Running  0     8s

tke-autoscaling-placeholder-b58fd9d5d-gmfmr  1/1   Running  0     8s

tke-autoscaling-placeholder-b58fd9d5d-grwlh  1/1   Running  0     8s

tke-autoscaling-placeholder-b58fd9d5d-ph7vl  1/1   Running  0     8s

tke-autoscaling-placeholder-b58fd9d5d-xmrmv  1/1   Running  0     8s

tke-autoscaling-placeholder的完整配置参考下面的表格:

参数描述默认值

replicaCountplaceholder 的副本数10

imageplaceholder 的镜像地址ccr.ccs.tencentyun.com/library/pause:latest

resources.requests.cpu单个 placeholder 副本占位的 cpu 资源大小300m

resources.requests.memory单个 placeholder 副本占位的内存大小600Mi

lowPriorityClass.create是否创建低优先级的 PriorityClass (用于被 placeholder 引用)true

lowPriorityClass.name低优先级的 PriorityClass 的名称low-priority

nodeSelector指定 placeholder 被调度到带有特定 label 的节点{}

tolerations指定 placeholder 要容忍的污点[]

affinity指定 placeholder 的亲和性配置{}

部署高优先级 Pod

tke-autoscaling-placeholder的优先级很低,我们的业务 Pod 可以指定一个高优先的 PriorityClass,方便抢占资源实现快速扩容,如果没有可以先创建一个:

1

2

3

4

5

6

7

apiVersion: scheduling.k8s.io/v1

kind: PriorityClass

metadata:

 name: high-priority

value: 1000000

globalDefault: false

description: "high priority class"

在我们的业务 Pod 中指定priorityClassName为高优先的 PriorityClass:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

apiVersion: apps/v1

kind: Deployment

metadata:

 name: nginx

spec:

 replicas: 8

 selector:

  matchLabels:

   app: nginx

 template:

  metadata:

   labels:

    app: nginx

  spec:

   priorityClassName: high-priority # 这里指定高优先的 PriorityClass

   containers:

   - name: nginx

    image: nginx

    resources:

     requests:

      cpu: 400m

      memory: 800Mi

当集群节点资源不够,扩容出来的高优先级业务 Pod 就可以将低优先级的tke-autoscaling-placeholder的 Pod 资源抢占过来并调度上,然后tke-autoscaling-placeholder的 Pod 再 Pending:

1

2

3

$ kubectl get pod -n default

NAME                     READY  STATUS  RESTARTS  AGE

nginx-bf79bbc8b-5kxcw             1/1   Running  0     23s

到此这篇关于使用 tke-autoscaling-placeholder 实现秒级弹性伸缩的文章就介绍到这了,更多相关tke-autoscaling-placeholder 实现秒级弹性伸缩

文章来源http://www.cncsto.com/article/25

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容