linux性能优化平均负载的理解

Posted sysu_lluozh

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了linux性能优化平均负载的理解相关的知识,希望对你有一定的参考价值。

每次发现系统变慢时,通常做的第一件事就是执行top或者uptime命令,了解系统的负载情况

比如像下面这样,在命令行里输入了uptime命令,系统也随即给出了结果

uptime

02:34:03 up 2 days, 20:14,  1 user,  load average: 0.63, 0.83, 0.88

每列输出的含义是什么呢?

前面几列比较熟悉,分别是当前时间、系统运行时间以及正在登录用户数

02:34:03 //当前时间
up 2 days, 20:14 //系统运行时间
1 user //正在登录用户数

而最后三个数字呢,依次则是过去1分钟、5分钟、15分钟的平均负载(Load Average)

一、什么是平均负载

这个词对很多人来说,可能既熟悉又陌生,接下来看看如何观测和理解这个最常见、也是最重要的系统指标

一定有人会这样理解,平均负载不就是单位时间内的 CPU 使用率吗?上面的0.63,就代表CPU使用率是63%,其实并不是这样

1.1 平均负载的定义

简单来说,平均负载是指单位时间内,系统处于可运行状态不可中断状态的平均进程数,也就是平均活跃进程数,它和CPU使用率并没有直接关系

这里先解释下,可运行状态和不可中断状态这俩词儿

1.2 可运行状态

所谓可运行状态的进程,是指正在使用CPU或者正在等待CPU的进程,也就是我们常用ps命令看到的,处于R状态(Running 或 Runnable)的进程

1.3 不可中断状态

不可中断状态的进程,是指正处于内核态关键流程中的进程,并且这些流程是不可打断的
比如最常见的是等待硬件设备的I/O响应,也就是我们在ps命令中看到的D状态(Uninterruptible Sleep,也称为Disk Sleep)的进程

比如,当一个进程向磁盘读写数据时,为了保证数据的一致性,在得到磁盘回复前,是不能被其他进程或者中断打断的,这个时候的进程就处于不可中断状态
如果此时的进程被打断了,就容易出现磁盘数据与进程数据不一致的问题

所以,不可中断状态实际上是系统对进程和硬件设备的一种保护机制

1.4 活跃进程数的换算

因此,可以简单理解为,平均负载其实就是平均活跃进程数

既然平均的是活跃进程数,那么最理想的,就是每个CPU上都刚好运行着一个进程,这样每个CPU都得到了充分利用

那比如当平均负载为2时,意味着什么呢?

  • 在2个CPU的系统上,意味着所有的CPU都刚好被完全占用
  • 在4个CPU的系统上,意味着CPU有50%的空闲
  • 在1个CPU的系统上,意味着一半的进程竞争不到CPU

二、平均负载多少时合理

现在回到最开始的例子,能否判断出在uptime命令的结果里,那三个时间段的平均负载数,多大的时候能说明系统负载高?或是多小的时候就能说明系统负载很低呢?

平均负载最理想的情况是等于CPU个数
所以在评判平均负载时,首先要知道系统有几个CPU,这可以通过top命令或者从文件/proc/cpuinfo中读取,比如:

# 关于grep和wc的用法请查询它们的手册或者网络搜索
$ grep 'model name' /proc/cpuinfo | wc ‑l
2

有了CPU个数,就可以判断出,当平均负载比CPU个数还大的时候,系统已经出现了过载

不过,新的问题又来了,在例子中可以看到,平均负载有三个数值,到底该参考哪一个呢?

实际上,都要看
三个不同时间间隔的平均值,其实提供了分析系统负载趋势的数据来源,可以更全面、更立体地理解目前的负载状况

CPU的三个负载时间段的分析:

  • 如果1分钟、5分钟、15分钟的三个值基本相同,或者相差不大,那就说明系统负载很平稳
  • 如果1分钟的值远小于15 分钟的值,就说明系统最近1分钟的负载在减少,而过去15分钟内却有很大的负载
  • 如果1分钟的值远大于 15 分钟的值,就说明最近1分钟的负载在增加,这种增加有可能只是临时性的,也有可能还会持续增加下去,需要持续观察

一旦1分钟的平均负载接近或超过了CPU的个数,就意味着系统正在发生过载的问题,这时就得分析调查是哪里导致的问题,并要想办法优化

举个例子,假设在一个单CPU系统上看到平均负载为1.73,0.60,7.98,那么说明在过去1分钟内,系统有73%的超载,而在15分钟内,有698%的超载,从整体趋势来看,系统的负载在降低

那么,在实际生产环境中,平均负载多高时,需要我们重点关注呢?

当平均负载高于CPU数量70%的时候,需要分析排查负载高的问题,因为一旦负载过高,可能导致进程响应变慢,进而影响服务的正常功能

70%这个数字并不是绝对的,推荐的方法是把系统的平均负载监控起来,然后根据更多的历史数据,判断负载的变化趋势
当发现负载有明显升高趋势时,比如说负载翻倍了,再去做分析和调查

三、平均负载与CPU使用率

现实工作中,经常容易把平均负载和CPU使用率混淆,所以在这里,做一个区分

可能会疑惑,既然平均负载代表的是活跃进程数,那平均负载高了,不就意味着CPU使用率高吗?

还是要回到平均负载的含义上来,平均负载是指单位时间内,处于可运行状态不可中断状态的进程数
所以,它不仅包括了正在使用CPU的进程,还包括等待CPU和等待 I/O的进程

而CPU使用率,是单位时间内CPU繁忙情况的统计,跟平均负载并不一定完全对应,比如:

CPU密集型进程,使用大量 CPU 会导致平均负载升高,此时这两者是一致的
I/O 密集型进程,等待 I/O 也会导致平均负载升高,但 CPU 使用率不一定很高
大量等待CPU的进程调度也会导致平均负载升高,此时CPU使用率也会比较高

四、平均负载案例分析

下面以三个示例分别来看这三种情况,并用iostat、mpstat、pidstat等工具,找出平均负载升高的根源

4.1 stress和sysstat

在这里,先简单介绍一下 stress 和 sysstat

  • stress

一个 Linux 系统压力测试工具,这里用作异常进程模拟平均负载升高的场景

  • sysstat

包含了常用的Linux性能工具,用来监控和分析系统的性能
接下来用到这个包的两个命令mpstat 和pidstat

  1. mpstat
    一个常用的多核CPU性能分析工具,用来实时查看每个CPU的性能指标,以及所有CPU的平均指标
  2. pidstat
    一个常用的进程性能分析工具,用来实时查看进程的CPU、内存、I/O以及上下文切换等性能指标

接下来的案例中每个场景都需要开三个终端,登录到同一台 Linux 机器中

在开始前,先用 uptime 命令,看一下测试前的平均负载情况:

$ uptime
...,  load average: 0.11, 0.15, 0.09

4.2 场景一:CPU密集型进程

首先,在第一个终端运行stress命令,模拟一个CPU使用率100%的场景:

$ stress ‑‑cpu 1 ‑‑timeout 600

接着,在第二个终端运行uptime查看平均负载的变化情况:

# ‑d 参数表示高亮显示变化的区域
$ watch ‑d uptime
...,  load average: 1.00, 0.75, 0.39

最后,在第三个终端运行mpstat查看CPU使用率的变化情况:

# ‑P ALL 表示监控所有CPU,后面数字5表示间隔5秒后输出一组数据
$ mpstat ‑P ALL 5
Linux 4.15.0 (ubuntu) 09/22/18 _x86_64_ (2 CPU)
13:30:06     CPU    %usr   %nice    %sys %iowait    %irq   %soft  %steal  %guest  %gnice   %idle
13:30:11     all   50.05    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00   49.95
13:30:11       0    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00  100.00
13:30:11       1  100.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00

从终端二中可以看到,1 分钟的平均负载会慢慢增加到1.00,而从终端三中还可以看到,正好 有一个CPU的使用率为100%,但它的iowait 只有0。这说明,平均负载的升高正是由于CPU 使用率为100%

那么,到底是哪个进程导致了CPU使用率为100%呢?可以使用pidstat查询:

# 间隔5秒后输出一组数据
$ pidstat ‑u 5 1
13:37:07      UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
13:37:12        0      2962  100.00    0.00    0.00    0.00  100.00     1  stress

从这里可以明显看到,stress进程的CPU使用率为100%

4.3 场景二:I/O密集型进程

首先,在第一个终端运行stress命令,这次模拟I/O压力,即不停地执行 sync:

$ stress ‑i 1 ‑‑timeout 600

接着,在第二个终端运行uptime查看平均负载的变化情况:

$ watch ‑d uptime
...,  load average: 1.06, 0.58, 0.37

然后,在第三个终端运行mpstat查看CPU使用率的变化情况:

# 显示所有CPU的指标,并在间隔5秒输出一组数据
$ mpstat ‑P ALL 5 1
Linux 4.15.0 (ubuntu)     09/22/18     _x86_64_    (2 CPU)
13:41:28     CPU    %usr   %nice    %sys %iowait    %irq   %soft  %steal  %guest  %gnice   %idle
13:41:33     all    0.21    0.00   12.07   32.67    0.00    0.21    0.00    0.00    0.00   54.84
13:41:33       0    0.43    0.00   23.87   67.53    0.00    0.43    0.00    0.00    0.00    7.74
13:41:33       1    0.00    0.00    0.81    0.20    0.00    0.00    0.00    0.00    0.00   98.99

从这里可以看到,1分钟的平均负载会慢慢增加到1.06,其中一个CPU的系统CPU使用率升高到了 23.87,而iowait高达67.53%。这说明,平均负载的升高是由于iowait 的升高

那么到底是哪个进程,导致iowait这么高呢?还是用pidstat来查询:

# 间隔5秒后输出一组数据,‑u表示CPU指标
$ pidstat ‑u 5 1
Linux 4.15.0 (ubuntu)     09/22/18     _x86_64_    (2 CPU)
13:42:08      UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
13:42:13        0       104    0.00    3.39    0.00    0.00    3.39     1  kworker/1:1H
13:42:13        0       109    0.00    0.40    0.00    0.00    0.40     0  kworker/0:1H
13:42:13        0      2997    2.00   35.53    0.00    3.99   37.52     1  stress
13:42:13        0      3057    0.00    0.40    0.00    0.00    0.40     0  pidstat

可以发现,还是stress进程导致

4.4 场景三:大量进程的场景

当系统中运行进程超出 CPU 运行能力时,就会出现等待CPU的进程

首先,在第一个终端运行stress命令,这次模拟的是8个进程:

$ stress ‑c 8 ‑‑timeout 600

接着,在第二个终端运行uptime查看平均负载的变化情况:

$ uptime
...,  load average: 7.97, 5.93, 3.0

由于系统只有2个CPU,明显比8个进程要少得多,因而,系统的CPU处于严重过载状态,平均负载高达7.97

然后,在第三个终端运行pidstat来看一下进程的情况:

# 间隔5秒后输出一组数据
$ pidstat ‑u 5 1
14:23:25      UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
14:23:30        0      3190   25.00    0.00    0.00   74.80   25.00     0  stress
14:23:30        0      3191   25.00    0.00    0.00   75.20   25.00     0  stress
14:23:30        0      3192   25.00    0.00    0.00   74.80   25.00     1  stress
14:23:30        0      3193   25.00    0.00    0.00   75.00   25.00     1  stress
14:23:30        0      3194   24.80    0.00    0.00   74.60   24.80     0  stress
14:23:30        0      3195   24.80    0.00    0.00   75.00   24.80     0  stress
14:23:30        0      3196   24.80    0.00    0.00   74.60   24.80     1  stress
14:23:30        0      3197   24.80    0.00    0.00   74.80   24.80     1  stress
14:23:30        0      3200    0.00    0.20    0.00    0.20    0.20     0  pidstat

可以看出,8个进程在争抢2个 CPU,每个进程等待CPU的时间(也就是代码块中的%wait列)高达75%
这些超出CPU计算能力的进程,最终导致CPU过载

五、小结

分析完这三个案例,再来归纳一下平均负载的理解

平均负载提供了一个快速查看系统整体性能的手段,反映了整体的负载情况
只看平均负载本身,并不能直接发现,到底是哪里出现了瓶颈。所以,在理解平均负载时,也要注意:

  • 平均负载高有可能是CPU 密集型进程导致的
  • 平均负载高并不一定代表CPU使用率高,还有可能是 I/O 更繁忙了

当发现负载高的时候,可以使用mpstat、pidstat等工具辅助分析负载的来源

以上是关于linux性能优化平均负载的理解的主要内容,如果未能解决你的问题,请参考以下文章

Linux优化如何理解“平均负载”

linux 性能自我学习 ———— 理解平均负载 [一]

Linux性能优化从入门到实战:02 CPU篇:平均负载

10个问题带你全面理解Linux性能优化

性能基础之理解Linux系统平均负载和CPU使用率

linux 性能优化之路: 什么是平均负载, 如何判断是哪种负载过高(cpu密集, io密集, 大量进程)