MapReduce的Thread Dump取得的辛酸

Posted 大墨垂杨

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了MapReduce的Thread Dump取得的辛酸相关的知识,希望对你有一定的参考价值。

====2016/5/20:

经过上级指示,为了MR性能调优,需要截取MR的服务器的线程堆栈(Thread Dump)

战友介绍的方法是这样的:

①、使用ps命令【ps -ef | grep java】过滤出所有的Java进程(毕竟MapReduce是运行在JVM中的)

②、从Java进程中找到MR的运行进程的PID(Process ID)

③、使用kill -3 <pid> 的命令来获取Thread Dump。获取之后的标准输出日志stdout中。

 

同事的介绍还是比较详细的,按照这个方法尝试了一下,确实是能取得Thread Dump。

但是呢,实际操作的过程中有两个问题,给我带来了很大的困扰:

问题①、Java的进程太多了,用肉眼去查找MR的进行太困难了。经常没等找到,进程就已经结束了。

导致kill -3 <pid>的时候,就会提示下面的信息。

问题②、即使找到了MR进程的PID,使用kill -3 命令也不是每次都能成功取得Thread Dump。

 

※使用ps -ef | grep java的结果如下图:看这个图是比较心疼自己的眼睛的。

 

针对问题①,下午进行了一下改进,就是grep的时候,不去用java的关键字,而是使用MR的Job ID去Grep。

JobId可以通过一下两个途径来取得:

途径1:Shell命令行

在使用hadoop jar <jar名> <类名>运行某个Jar包的时候,这个Job被接受并开始运行时,会分配一个JobID,这个ID在控制台上会提示出来。

途径2:Web页面

所有的Job都会在Web页面上表示出来,其中第一列的应用管理器的ID的后半段是和JobID一样的,使用这个也可以。

 

然后使用ps -ef | grep <job id>来查找和这个Job相关的所有进程。如下图所示:

小试身手之后,果然查找MR的进程方便了很多。甚是欣慰。。。

不过上面的问题②,ThreadDump不能每次成功的问题仍然困扰着我。而且到下午之后,既然没有1次能够成功取得Thread Dump。

 

====2016/5/21

今天是周六,推掉一些生活上的预约(苦逼码农的常态),果断过来加班。

走在路上,满脑袋都是问题②的事情,没有任何头绪。后来想起昨天领导随意说的一句话:是不是你Kill的进程不正确?

感觉很是有道理嘛,为什么不试试呢?迫不及待的来到公司,打开电脑,尝试了一下对MR的不同的进程进行kill。

结果,日了狗了,竟然真的是有的进程无法取得Thread Dump,而有的进程就可以。悲催的同时,见到一丝曙光也是比较开心的。

那么,问题来了,这些进程之间有什么区别,什么进程可以取得Thread Dump呢?

经过一番调查之后,得到如下结论:

--------

系统在运行每个进程时都会关联几个号,分别为pid、ppid、uid、euid。

进程的pid为运行进程时,系统自动分配的,用于唯一标识此进程的一个整数。进程的ppid就是进程的父进程的pid

--------

也就是说进程之间是有父子关系的。只有找到正确的进行才可以取得到dump文件。

过程如下所示:     ※蓝色部分为子进程,红色为父进程。

stdout中的内容如下所示。 

看到下面的内容,有种想哭的感觉。。。。。

 

====总结

①、使用ps命令查看进程的pid的时候,可以活用grep关键字。以缩减范围

②、可以使用kill -3 <pid>来发送消息,从而达到截取Thread Dump的目的。

③、kill -3 一定要对正确的进行使用。切记切记。

 

以上是关于MapReduce的Thread Dump取得的辛酸的主要内容,如果未能解决你的问题,请参考以下文章

如何使用thread dump和分析Thread dump?

如何分析java thread dump

转:Java - Heap Dump, Thread Dump and Core Dump

如何分析Thread Dump

如何分析Thread Dump

java程序性能分析之thread dump和heap dump