您的位置:首页 > 运维架构

解决hadoop抛出的Task process exit with nonzero status of 134异常

2013-01-09 10:12 429 查看
转载请注明出处,谢谢:

/article/4004789.html

问题:

hadoop安装完毕后,拿着hadoop的示例程序,尝试在单机环境下运行,先修改/etc/profile文件,增加如下内容:

export JAVA_HOME=/opt/jdk1.6.0_29

export HADOOP_HOME=/opt/hadoop-0.20.203.0

export HADOOP_CLASSPATH="$HADOOP_HOME/javademo"

export CLASSPATH=.:$JAVA_HOME/jre/lib:$JAVA_HOME/lib/tools.jar

export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH

然后执行如下命令,让配置生效:

$. /etc/profile

再执行示例程序(或执行hadoop自带的wordcount示例):

hadoop demo.MaxTemperature input/sample.txt output

发现日志总停在如下状态:

mapred.JobClient: map 0% reduce 0%

通过查看hadoop的启动进程:

$ps -ef|grep hadoop

发现有一个进程异常终止,hadoop正常启动应该启动5个进程(namenode, datanode, secondary namenode, jobtracker, tasktracker),其中tasktracker异常终止了,通过查看 hadoop-root-tasktracker-***.log 日志,发现抛出了一个异常:

java.io.IOException: *Task process exit with nonzero status of 134.*

at org.apache.hadoop.mapred.TaskRunner.run(TaskRunner.java:258)

解决办法:

网上搜索了一番,最终终于把此问题解决掉了,把思路说明一下:

1、通过反编译查看org.apache.hadoop.mapred.TaskRunner类的258行附近的代码:

static

{

LOG.debug("Trying to load the custom-built native-hadoop library...");

try {

System.loadLibrary("hadoop");

LOG.info("Loaded the native-hadoop library");

nativeCodeLoaded = true;

}

catch (Throwable t) {

LOG.debug("Failed to load native-hadoop with error: " + t);

LOG.debug("java.library.path=" + System.getProperty("java.library.path"));

}

if (!nativeCodeLoaded)

LOG.warn("Unable to load native-hadoop library for your platform... using builtin-java classes where applicable");

}

感觉是加载本地库出了问题。

2、发现在$HADOOP_HOME目录下生成了如下日志文件:

hs_err_pid***.log

这个异常日志,打开一看,看不太懂,又从网上学习了一下,发现了一些线索,其中文件头的内容是这样的:

# A fatal error has been detected by the Java Runtime Environment:

#

# SIGFPE (0x8) at pc=0x40008026, pid=31393, tid=2283477936

#

# JRE version: 6.0_29-b08

# Java VM: Java HotSpot(TM) Client VM (20.4-b01 mixed mode linux-x86 )

# Problematic frame:

# C [ld-linux.so.2+0x8026] double+0xb6

#

# If you would like to submit a bug report, please visit:

# http://java.sun.com/webapps/bugreport/crash.jsp
# The crash happened outside the Java Virtual Machine in native code.

# See problematic frame for where to report the bug.

说明确实是加载本地库导致的异常。

3、网上学习了Hadoop本地库的一些介绍,发现有两种方法解决本地库的问题:

方法一是通过配置让本地库设置失效,在Hadoop的配置文件conf/core-site.xml中可以设置是否使用本地库:

<property>

<name>hadoop.native.lib</name>

<value>false</value>

</property>

测试后发现问题依然存在。

方法二是重新编译本地库:

于是下载了个ant,在/etc/profile中添加如下内容:

export ANT_HOME=/opt/apache-ant-1.8.0

export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$ANT_HOME/bin:$PATH

执行如下命令,让配置生效:

$. /etc/profile

在$HADOOP_HOME目录下,使用如下命令:

$ant compile-native

编译完成后,可以在$HADOOP_HOME/build/native目录下找到相应的文件,然后移动编译好的文件到默认目录下。

最后重启hadoop服务,重新执行测试示例,终于看到了任务执行完毕的日志:

11/10/18 08:01:33 INFO mapred.JobClient: map 0% reduce 0%

11/10/18 08:01:55 INFO mapred.JobClient: map 50% reduce 0%

11/10/18 08:01:58 INFO mapred.JobClient: map 100% reduce 0%

11/10/18 08:02:10 INFO mapred.JobClient: map 100% reduce 100%

11/10/18 08:02:15 INFO mapred.JobClient: Job complete: job_201110180800_0001

最后别忘了将build目录移走或删除,否则有些意想不到的结果。

至此,纠结的问题得以解决,来杯


在$HADOOP_HOME/lib/native/Linux**32or64/目录中的是原来的本地库文件,你现在只需要在$HADOOP_HOME/build/native/目录中找到Linux**32or64目录中找到那几个文件cp过去就可以了
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐