您的位置:首页 > 运维架构

hadoop入门之单机版环境搭建(多图)

2011-12-17 20:59 489 查看
系统环境:redhat enterprise linux 4

1) Java环境的安装与配置

从java.sun.com下载jdk-6uxx-linux-i586.bin。

解压java



设置环境变量



在profile 文件中加入:

export PATH=/root/jdk1.6.0_14/bin:$PATH

export JAVA_HOME=/root/jdk1.6.0_14

执行下面命令,让环境变量生效



测试java是否安装成功



看到以上信息证明你的java >已经安装成功

2) 安装Hadoop

从hadoop官网下载hadoop-0.20.1.tar.gz



在hadoop-env.sh 中添加export JAVA_HOME=/root/jdk1.6.0_14

测试hadoop是否安装成功



3) 配置单机环境下的hadoop

a) 编辑配置文件







b) 设置ssh为不需要手动输入密码的方式登陆

$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

c)格式化一个新的分布式文件系统

$ cd hadoop-0.20.1
$ bin/hadoop namenode –format
d)启动 hadoop 进程。控制台上的输出信息应该显示启动了 namenode, datanode, secondary namenode, jobtracker, tasktracker。启动完成之后,通过 ps –ef 应该可以看到启动了5个新的 java 进程

$ bin/start-all.sh:yes">

$ ps –ef

e)运行 wordcount 应用

$ cd hadoop-0.20.1

$ mkdir test-txt

$ cd test-txt

#在 test-txt 目录下创建两个文本文件, WordCount 程序将统计其中各个单词出现次数

$ echo "hello world, bye , world." >file1.txt

$ echo "hello hadoop, goodbye , hadoop" >file2.txt

$ cd ..

$ bin/hadoop dfs -put ./test-txt input

#将本地文件系统上的./test-txt目录拷到 HDFS 的根目录上,目录名改为 input

#执行 bin/hadoop dfs –help 可以学习各种 HDFS 命令的使用。

$ bin/hadoop jar hadoop-0.20.1-examples.jar wordcount input output

#查看执行结果:

#将文件从 HDFS 拷到本地文件系统中再查看:

$ bin/hadoop dfs -get output output

$ cat output/*

#也可以直接查看

$ bin/hadoop dfs -cat output/*

$ bin/stop-all.sh #停止hadoop进程

f)运行效果

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: