记一次性能提高 3 倍的优化过程

本文只是记录一个过程和思路,以供探讨。

现象

上午10点左右,用户报告某个服务器远程 jupyter 响应极慢。
登上服务器一看,用 htop 命令查看,可以看到:

  1. 内存 free 1.5TB,cache 600GB,已用 3TB
  2. CPU 256核心(超线程) 全部跑满。CPU 利用率 user 大概占 20%,sys 大概占 80%,idle 几乎为 0
  3. vmstat 显示大约有 5000+ 进程 runing,上下文切换每秒大概 1.7 亿次

粗略判断和解决

粗略判断 CPU 繁忙肯定是个问题,解决方案有两个:

  1. 降低大量占用 CPU 的程序优先级
  2. 将 jupyter 程序单独划分1,2个 CPU 核心,将其他计算密集型的程序划分到另外的 CPU

考虑到方案1比较容易操作,通过 ps axjf 把进程用树状列出来,找出耗费 CPU 的程序,然后结合 xargs 和 renice +19 调低其优先级。用户报告体验明显改善。同时 CPU 利用率基本上还是不变。

对现象的思考

然而,我对这里还有几个疑惑:

  1. 按 5000 个进程,256个 CPU 核心来算,那么每个核心大概分到20个进程。那么原先 jupyter 大概会分到二十分之一的计算资源。那么 renice 后能够分到多少资源,能够定量进行评估吗?我不确定 renice +19 应该起到多少作用。
  2. sys 占总量的 80%,这个是不是合理?应该占到多少才是合理的?和进程数量是有关系的吗?
  3. 上下文切换每秒为 17亿,是合理的吗?应该是多少?

对现象的分析

问题1的分析

经过讨论,我们发现还是得具体看代码。不大好评估具体影响。

问题3的分析

理论估算

我们看了一下 HZ 为 250,那么意味着每隔 4ms 就会有一次时间中断。
按照 CFS 的调度策略,我们可以认为每次时间中断会有一次调度,那么按 256 个核心,每隔核心每 4 ms发生一次调度来计算,每秒应该发生上下文切换数量为:256*1000ms/4ms = 6.4万 次。
我们写了一个小程序验证,在 128 核心,6000进程,计算密集型的情况下,上下文切换大概在3万左右,跟理论推断基本一致。

实际情况

上下文每秒切换 17亿次,那么意味着每个进程大概运行了 0.001ms 就会被换下来。预期应该是每个进程运行 4ms 才对。

问题2的分析

用 perf top 来进行分析,可以看到排名靠前的时间都花在上下文切换上:
分别为(switch_fpu_return, __switch_to_asm, load_new_mm_cr3)

对现象的推论和求证

推论

结合问题2和问题3,我们可以得出两个推论:

  1. sys 这么高很可能是上下文切换造成的
  2. 因为某些特别的情况,导致了一个很高的上下文切换

求证

通过对用户程序进行 strace 跟踪,我们可以观察到 futex 竞争的情况。经过网上搜索,我们推断可能是 futex 满足条件的时候,唤醒了太多的进程,从而导致了大量的颠簸。对此我们没有进一步的验证。

进一步的解决办法

考虑到实际上程序基本上都在上下文切换没干活,我们建议用户降低进程数量。

效果

在用户降低数量后,我们发现 CPU 的 user 占比大概达到了 60-80%,而sys则降低到了 2% 左右,同时空出了大量的 idle。考虑到用户的程序运行效率可以通过 user 的利用率来等价,因此我们可以推断用户的程序运行效率实际上提高了 3-4 倍。从用户程序运行的时间来看,也大概符合推断。

再进一步的评估

那么,对于这个效率,是否还能更高?是否符合预期?

从 CPU 结构的角度来看,256 核心实际上是开启了超线程后的结果,考虑到超线程的两个核心实际上共享了同一组计算单元,所以理论上来说能够达到 50% 左右的利用率,那么基本上就已经充分的利用了所有的计算资源了。

所以,我们预期这种情况下,实际上已经算是最好的结果了。因此也没有必要再继续进行调优了。

总结

  1. 要想办法解决用户的问题,用最简单的办法。以上用了 renice 来解决。
  2. 对于 sys 比较高的情况,要思考是否合理。即对这个值要有个概念,并且进行推测和证明。
  3. 对于最终结果,要进行验证和估计,看看是否已经优化到了预期值。
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容