Hadoop 源码分析——Job提交过程

Posted 独立小桥风满袖

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Hadoop 源码分析——Job提交过程相关的知识,希望对你有一定的参考价值。

 
1.在客户端,我们进行Job相关属性设定后,最后使用job.waitForCompletion(true);提交任务到集群中,并等待集群作业完成
      public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
            Configuration conf = new Configuration();
            Job job = Job.getInstance(conf);
            
            job.setJarByClass(DataCount.class);
            job.setMapperClass(DCMapper.class);
            // k2 v2 and k3 v3
            // job.setMapOutputKeyClass(Text.class);
            // job.setMapOutputValueClass(DataBean.class);
            FileInputFormat.setInputPaths(job, new Path(args[0]));
            
            job.setReducerClass(DCReducer.class);
            job.setOutputKeyClass(Text.class);
            job.setOutputValueClass(DataBean.class);
            FileOutputFormat.setOutputPath(job, new Path(args[1]));
            job.waitForCompletion(true);
      }
2.核心是job.waitForCompletion(true);过程分析,下面我们重点分析此过程。
     1)此过程检查Job状态后,状态OK则提交作业submit()
     2)提交作业先,需要建立连接connect(),此连接过程会创建Cluster对象,并生成cluster的引用
     3)Job类持有Cluster的引用,而Cluster持用ResourceManager进程的引用,Cluster也持有RPC代理对象client
        说明:客户端持有服务端的引用,这样就可以建立RPC通信
     4)Cluster的构造方法 initialize(jobTrackAddr, conf);会创建如下对象 ClientProtocol clientProtocol,而这一个对象就是一个接口,最后再将这一个代理对象赋值给 client = clientProtocol;  而client 就是Cluster的成员变量
     5)上述就是Job建立连接的过程,完成连接后需要得到一个提交器,Job创建一个提交器JobSubmitter submitter
     6)通过提交器将Job,cluster传入submitter.submitJobInternal(Job.this, cluster);
     7)submitter 检查输出目录是否有异常,接着得到一个存储Jar包路径jobStagingArea ,再得到一个JobID,JobID是通过submitter里的RPC引用得到,实际JobID是在服务端实现
     8)submitter提交器将提交jar地址是通过jobStagingArea和JobID拼接而成
     9)submitter提交器copyAndConfigureFiles接口将Jar包和配置信息提交到hdfs里,默认向hdfs写10份(也可以通过配置mapreduce.client.submit.file.replication,当然提交的份数也可以通过读取配置文件获得mapreduce.client.submit.file.replication(mapred-default.xml 682行))
     10)submitter提交器通过copyAndConfigureFiles拷贝Jar信息到hdfs
     11)submitter提交器通过服务端代理对象submitClient.submitJob提交Job信息,服务端最终将信息提交给ResourceManager
 
 
 
 
 
 
 

以上是关于Hadoop 源码分析——Job提交过程的主要内容,如果未能解决你的问题,请参考以下文章

FlinkOnYarn源码分析

八MapReduce--job提交源码分析

5. spark-2.4.6源码分析(基于yarn cluster模式)- job任务提交Stage划分Stage提交

Spark 中 JobStageTask 的划分+源码执行过程分析

Spark源码分析之二:Job的调度模型与运行反馈

Hadoop2 使用 YARN 运行 MapReduce 的过程源码分析