【Hadoop】MapReduce Job Files
2013-10-19 21:16
381 查看
Hadoop运行一个MapReduce Job后,JobTracker和TaskTracker都需要创建/维护一系列的文件以便运行/管理/监控job。其中,有部分job files存储在HDFS从而可以分发到各个TT,有部分存储在JT和TT本地。
JobTracker Files
下表总结了几种主要的job file:
其中有两点解释一下:
Staging directory: 用户提交Job时,客户端需要将Job相关的文件拷贝到HDFS以便JobTracker随后引用。这在另一篇文章《MapReduce Job Submission Files》中讨论过
History directory: 用户之所以可以通过UI来监测Job运行以及历史信息,是因为JobTracker实现了一个HistoryServer,并将Job运行的历史信息记录到Local FS。最主要的是记录历史运行状态的文件,记录了包括提交/完成时间,每个Task Attemp的启动时间,运行状态,Counter等。
Cloudera Blog上有一篇总结Job Files的文章http://blog.cloudera.com/blog/2010/11/hadoop-log-location-and-retention/
TaskTracker Files
真正执行Task的TaskTracker在Local FileSystem也需要维护一系列的job files,下面这篇文章的"Directory Structure"部分有详细总结:
http://hadoop.apache.org/docs/r1.2.1/mapred_tutorial.html
JobTracker Files
下表总结了几种主要的job file:
FS | Location Property | Child Directory | Directory File List | File Type |
HDFS | mapreduce.jobtracker.staging.root.dir | <userId>/.staging/<jobId> | job.xml job.jar job.split job.splitmetainfo | Temporary |
HDFS | mapred.system.dir | <jobId> | jobToken | Temporary |
Local | mapred.local.dir | jobTracker | <jobId>.xml | Temporary |
Local | hadoop.job.history.location | . | <jobId>_<timestamp>_<userId>_<jobName> <jobId>_conf.xml | Persistent |
Staging directory: 用户提交Job时,客户端需要将Job相关的文件拷贝到HDFS以便JobTracker随后引用。这在另一篇文章《MapReduce Job Submission Files》中讨论过
History directory: 用户之所以可以通过UI来监测Job运行以及历史信息,是因为JobTracker实现了一个HistoryServer,并将Job运行的历史信息记录到Local FS。最主要的是记录历史运行状态的文件,记录了包括提交/完成时间,每个Task Attemp的启动时间,运行状态,Counter等。
Cloudera Blog上有一篇总结Job Files的文章http://blog.cloudera.com/blog/2010/11/hadoop-log-location-and-retention/
TaskTracker Files
真正执行Task的TaskTracker在Local FileSystem也需要维护一系列的job files,下面这篇文章的"Directory Structure"部分有详细总结:
http://hadoop.apache.org/docs/r1.2.1/mapred_tutorial.html
相关文章推荐
- 【Hadoop】MapReduce Job Submission Files
- 【Hadoop】MapReduce Job Submission Files - 代码描述
- Hadoop: MapReduce2多个job串行处理
- Hadoop MapReduce执行过程详解及MR中job参数及设置map和reduce的个数(带hadoop例子)
- Distributed System: Hadoop MapReduce框架的角色和Job提交过程
- Hadoop MapReduce Job提交后的交互日志
- hadoop2 如何在执行mapreduce的时候指定job的名字
- Creating Hadoop MapReduce Job with Spring Data Apache Hadoop
- Hadoop平台作业参数设置关于mapreduce.job.split.metainfo.maxsize的说明
- Hadoop学习之路(十五)MapReduce的多Job串联和全局计数器
- Hadoop实战之链接MapReduce Job
- Hadoop运行任务时一直卡在: INFO mapreduce.Job: Running job
- hadoop之MapReduce框架JobTracker端心跳机制分析(源码分析第七篇) 推荐
- Hadoop: MapReduce2多个job串行处理 复杂的MapReduce处理中,往往需要将复杂的处理过程,分解成多个简单的Job来执行,第1个Job的输出做为第2个Job的输入,相互之间有一
- IncompatibleClassChangFound interface org.apache.hadoop.mapreduce.JobContext, but class was expected
- Hadoop源码之我见--MapReduce部分(一)--Job类
- Hadoop运行任务时一直卡在: INFO mapreduce.Job: Running job
- hbase 数据export/import (No enum constant org.apache.hadoop.mapreduce.JobCounter.MB_MILLIS_MAPS)
- Hadoop中MapReduce运行剖析-Anatomy of a MapReduce Job Run with Hadoop