配置HistoryServer
2015-06-12 11:30
381 查看
默认情况下HistoryServer没有启动,需要使用sbin/mr-jobhistory-daemon.sh start historyserver 启动
并且启动前需要在mapred-site.xml加上配置:
此时启动会发现已经自动创建HDFS目录
但是如果在本地执行JOB时还会发现Jobserver虽然能启动,但是不能在上面看到job信息,查看资料发现还有些配置项需要配置,每个配置项都要和官网上的配置文件版本比对,不同的版本名称不一样:
比如mapred-site.xml默认官网URL:http://hadoop.apache.org/docs/stable/hadoop-mapreduce-client/hadoop-mapreduce-client-core/mapred-default.xml
下面是增加的配置项:
mapred-default.xml:
取值local、classic或yarn其中之一,如果不是yarn,则不会使用YARN集群来实现资源的分配 (默认为local),不配置loghistory不能查看体现log
配置每个map或reduce使用的内存数量(默认为200m),不配置可能会报map的java heap size错误
排序内存使用限制(默认为100)
yarn-site.xml
配置shuffle服务
启用日志聚集功能,默认为false,不打开则查看详细日志会报错
这样虽然可以在historyserver中看到job信息,但是在eclipse上执行job时,会报错,一种是output-collector-not-initialised,另一种是类找不到,但是如果将eclipse中的项目打成jar包,直接用hadoop jar还是可以运行的,所以感觉程序应该是没有问题,仍然是环境的问题,于是将eclipse打成的jar包导入进eclipse hadoop项目,这时再run on hadoop就没有错误了
并且启动前需要在mapred-site.xml加上配置:
<property> <name>mapreduce.jobhistory.address</name> <value>127.0.0.1:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>127.0.0.1:19888</value> </property> <property> <name>mapreduce.jobhistory.done-dir</name> <value>/history/done</value> </property>
<property> <name>yarn.app.mapreduce.am.staging-dir</name> <value>/tmp/hadoop-yarn/staging</value> </property> <property> <name>mapreduce.task.io.sort.mb</name> <value>1024</value> </property>
此时启动会发现已经自动创建HDFS目录
但是如果在本地执行JOB时还会发现Jobserver虽然能启动,但是不能在上面看到job信息,查看资料发现还有些配置项需要配置,每个配置项都要和官网上的配置文件版本比对,不同的版本名称不一样:
比如mapred-site.xml默认官网URL:http://hadoop.apache.org/docs/stable/hadoop-mapreduce-client/hadoop-mapreduce-client-core/mapred-default.xml
下面是增加的配置项:
mapred-default.xml:
<property> <name>mapreduce.framework.name</name> <value>yarn</value> </property>
取值local、classic或yarn其中之一,如果不是yarn,则不会使用YARN集群来实现资源的分配 (默认为local),不配置loghistory不能查看体现log
<property> <name>mapred.child.java.opts</name> <value>-Xmx2048m</value> </property>
配置每个map或reduce使用的内存数量(默认为200m),不配置可能会报map的java heap size错误
<property> <name>mapreduce.task.io.sort.mb</name> <value>1024</value> </property>
排序内存使用限制(默认为100)
yarn-site.xml
<property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property>
配置shuffle服务
<property> <name>yarn.log-aggregation-enable</name> <value>true</value> </property>
启用日志聚集功能,默认为false,不打开则查看详细日志会报错
这样虽然可以在historyserver中看到job信息,但是在eclipse上执行job时,会报错,一种是output-collector-not-initialised,另一种是类找不到,但是如果将eclipse中的项目打成jar包,直接用hadoop jar还是可以运行的,所以感觉程序应该是没有问题,仍然是环境的问题,于是将eclipse打成的jar包导入进eclipse hadoop项目,这时再run on hadoop就没有错误了
相关文章推荐
- 几种垃圾回收机制
- Java 中 modifer 'public' is reduntant for interface methods
- 我与学院的点点滴滴
- MS-SqlServer将本地数据库更新,定时同步到外网数据库
- 高通msm8994启动流程简介
- javabean总结
- @media 适配兼容
- 深圳华瑞三和集团有限公司携手泛微华南大区
- quartz CronExpression表达式
- Openwrt 串口多用户访问
- 操作系统宏定义
- C++ string 字符串 知识点 小结
- Android淘宝电影日期滚动栏的实现
- 构建科技初创企业生态系统 中国应向新加坡学习
- xUtils框架
- 泛微OA体验模式给行业带来冲击
- CSS垂直居中实现方法大全
- win7如何设置屏幕保护程序、窗口颜色和外观?
- jquery开发之第一个程序
- u-boot mkconfig文件分析