Java程序导致服务器CPU占用率过高的问题排除过程

Posted 风再起时9302

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Java程序导致服务器CPU占用率过高的问题排除过程相关的知识,希望对你有一定的参考价值。

转自: https://blog.csdn.net/yangfengjueqi/article/details/81126381

1、故障现象

客服同事反馈平台系统运行缓慢,网页卡顿严重,多次重启系统后问题依然存在,使用top命令查看服务器情况,发现CPU占用率过高。

2、CPU占用过高问题定位

2.1、定位问题进程

使用top命令查看资源占用情况,发现pid为14063的进程占用了大量的CPU资源,CPU占用率高达776.1%,内存占用率也达到了29.8%

  1.  
    [ylp@ylp-web-01 ~]$ top
  2.  
    top - 14:51:10 up 233 days, 11:40, 7 users, load average: 6.85, 5.62, 3.97
  3.  
    Tasks: 192 total, 2 running, 190 sleeping, 0 stopped, 0 zombie
  4.  
    %Cpu(s): 97.3 us, 0.3 sy, 0.0 ni, 2.5 id, 0.0 wa, 0.0 hi, 0.0 si, 0.0 st
  5.  
    KiB Mem : 16268652 total, 5114392 free, 6907028 used, 4247232 buff/cache
  6.  
    KiB Swap: 4063228 total, 3989708 free, 73520 used. 8751512 avail Mem
  7.  
    PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
  8.  
     
  9.  
    14063 ylp 20 0 9260488 4.627g 11976 S 776.1 29.8 117:41.66 java

2.2、定位问题线程

使用ps -mp pid -o THREAD,tid,time命令查看该进程的线程情况,发现该进程的多个线程占用率很高,

  1.  
    [ylp@ylp-web-01 ~]$ ps -mp 14063 -o THREAD,tid,time
  2.  
    USER %CPU PRI SCNT WCHAN USER SYSTEM TID TIME
  3.  
    ylp 361 - - - - - - 02:05:58
  4.  
    ylp 0.0 19 - futex_ - - 14063 00:00:00
  5.  
    ylp 0.0 19 - poll_s - - 14064 00:00:00
  6.  
    ylp 44.5 19 - - - - 14065 00:15:30
  7.  
    ylp 44.5 19 - - - - 14066 00:15:30
  8.  
    ylp 44.4 19 - - - - 14067 00:15:29
  9.  
    ylp 44.5 19 - - - - 14068 00:15:30
  10.  
    ylp 44.5 19 - - - - 14069 00:15:30
  11.  
    ylp 44.5 19 - - - - 14070 00:15:30
  12.  
    ylp 44.5 19 - - - - 14071 00:15:30
  13.  
    ylp 44.6 19 - - - - 14072 00:15:32
  14.  
    ylp 2.2 19 - futex_ - - 14073 00:00:46
  15.  
    ylp 0.0 19 - futex_ - - 14074 00:00:00
  16.  
    ylp 0.0 19 - futex_ - - 14075 00:00:00
  17.  
    ylp 0.0 19 - futex_ - - 14076 00:00:00
  18.  
    ylp 0.7 19 - futex_ - - 14077 00:00:15
[root@localhost logs]# ps -mp 2633 -o THREAD,tid,time | sort -rn

第二条是根据CPU占比由高到低排列,从输出信息可以看出,14065~14072之间的线程CPU占用率都很高

2.3、查看问题线程堆栈

挑选TID为14065的线程,查看该线程的堆栈情况,先将线程id转为16进制,使用printf “%x ” tid命令进行转换

  1.  
    [ylp@ylp-web-01 ~]$ printf "%x " 14065
  2.  
    36f1

再使用jstack命令打印线程堆栈信息,命令格式:jstack pid |grep tid -A 30

  1.  
    [ylp@ylp-web-01 ~]$ jstack 14063 |grep 36f1 -A 30
  2.  
    "GC task thread#0 (ParallelGC)" prio=10 tid=0x00007fa35001e800 nid=0x36f1 runnable
  3.  
    "GC task thread#1 (ParallelGC)" prio=10 tid=0x00007fa350020800 nid=0x36f2 runnable
  4.  
    "GC task thread#2 (ParallelGC)" prio=10 tid=0x00007fa350022800 nid=0x36f3 runnable
  5.  
    "GC task thread#3 (ParallelGC)" prio=10 tid=0x00007fa350024000 nid=0x36f4 runnable
  6.  
    "GC task thread#4 (ParallelGC)" prio=10 tid=0x00007fa350026000 nid=0x36f5 runnable
  7.  
    "GC task thread#5 (ParallelGC)" prio=10 tid=0x00007fa350028000 nid=0x36f6 runnable
  8.  
    "GC task thread#6 (ParallelGC)" prio=10 tid=0x00007fa350029800 nid=0x36f7 runnable
  9.  
    "GC task thread#7 (ParallelGC)" prio=10 tid=0x00007fa35002b800 nid=0x36f8 runnable
  10.  
    "VM Periodic Task Thread" prio=10 tid=0x00007fa3500a8800 nid=0x3700 waiting on condition
  11.  
     
  12.  
    JNI global references: 392

从输出信息可以看出,此线程是JVM的gc线程。此时可以基本确定是内存不足或内存泄露导致gc线程持续运行,导致CPU占用过高。 
所以接下来我们要找的内存方面的问题

3、内存问题定位

3.1、使用jstat -gcutil命令查看进程的内存情况

  1.  
    [ylp@ylp-web-01 ~]$ jstat -gcutil 14063 2000 10
  2.  
     
  3.  
    S0 S1 E O P YGC YGCT FGC FGCT GCT
  4.  
    0.00 0.00 100.00 99.99 26.31 42 21.917 218 1484.830 1506.747
  5.  
    0.00 0.00 100.00 99.99 26.31 42 21.917 218 1484.830 1506.747
  6.  
    0.00 0.00 100.00 99.99 26.31 42 21.917 219 1496.567 1518.484
  7.  
    0.00 0.00 100.00 99.99 26.31 42 21.917 219 1496.567 1518.484
  8.  
    0.00 0.00 100.00 99.99 26.31 42 21.917 219 1496.567 1518.484
  9.  
    0.00 0.00 100.00 99.99 26.31 42 21.917 219 1496.567 1518.484
  10.  
    0.00 0.00 100.00 99.99 26.31 42 21.917 219 1496.567 1518.484
  11.  
    0.00 0.00 100.00 99.99 26.31 42 21.917 220 1505.439 1527.355
  12.  
    0.00 0.00 100.00 99.99 26.31 42 21.917 220 1505.439 1527.355
  13.  
    0.00 0.00 100.00 99.99 26.31 42 21.917 220 1505.439 1527.355
  14.  
    ```
  15.  
    从输出信息可以看出,Eden区内存占用100%,Old区内存占用99.99%,Full GC的次数高达220次,并且频繁Full GC,Full GC的持续时间也特别长,平均每次Full GC耗时6.8秒(1505.439/220)。根据这些信息,基本可以确定是程序代码上出现了问题,可能存在不合理创建对象的地方
  16.  
     
  17.  
    ####3.2、分析堆栈
  18.  
    使用jstat命令查看进程的堆栈情况
  19.  
     

[ylp@ylp-web-01 ~]$ jstat 14063 >>jstat.out 
把jstat.out文件从服务器拿到本地后,用编辑器查找带有项目目录并且线程状态是RUNABLE的相关信息,从图中可以看出ActivityUtil.java类的447行正在使用HashMap.put()方法 
技术图片

3.3、代码定位

打开项目工程,找到ActivityUtil类的477行,代码如下: 
技术图片 
找到相关同事了解后,这段代码会从数据库中获取配置,并根据数据库中remain的值进行循环,在循环中会一直对HashMap进行put操作。

查询数据库中的配置,发现remain的数量巨大 
技术图片

至此,问题定位完毕。

以上是关于Java程序导致服务器CPU占用率过高的问题排除过程的主要内容,如果未能解决你的问题,请参考以下文章

记一次线上Java程序导致服务器CPU占用率过高的问题排除过程

线上Java程序导致服务器CPU占用率过高的问题排除过程

线上Java程序导致服务器CPU占用率过高的问题排除过程

记一次线上Java程序导致服务器CPU占用率过高的问题排除过程

Java内存CPU占用率过高

java 多线程 cpu 占用率高的问题