hadoop2.0为分布式搭建
2014-05-05 18:18
183 查看
本文转载自http://www.iteblog.com/archives/790
首先,你得在电脑上面安装好jdk7,如何安装,这里就不说了,网上一大堆教程!然后安装好ssh,如何安装请参见本博客《Linux平台下安装SSH》、并设置好无密码登录(《Ubuntu和CentOS如何配置SSH使得无密码登陆》)。好了,上面的前提条件部署好之后,下面将进入Hadoop2.2.0的部署。
运行下面命令,将最新版的hadoop下载下来:
当然,你也可以用下载的软件到上面的地址去下载。上面的命令是一行,由于此处太长了, 所以强制弄成两行。假设下载好的hadoop存放在/home/wyp/Downloads/hadoop目录中,由于下载下来的hadoop是压缩好的,请将它解压,运行下面的命令:
解压之后,你将会看到如下目录结构:
下面是配置Hadoop的步骤:首先设置好Hadoop环境变量:
然后按:wq保存。为了让刚刚的设置生效,运行下面的命令
接下来修改Hadoop的hadoop-env.sh配置文件,设置jdk所在的路径:
设置好之后请保存退出。接下来请配置好一下几个文件(都在hadoop目录下的etc/hadoop目录下):
上面的配置弄好之后,现在来进行测试,看看配置是否正确。首先格式化一下HDFS,如下命令:
大概出现上面的输出,好了,去启动一下你的Hadoop吧,命令如下:
查看一下是否安装好了Hadoop,命令如下:
其中的jps是jdk自带的,如果出现NameNode、SecondaryNameNode、NodeManager、ResourceManager、DataNode这五个进程,那就恭喜你了,你的Hadoop已经安装好了!
这里附上如何关闭Hadoop各个服务
本博客文章除特别声明,全部都是原创!
尊重原创,转载请注明: 转载自过往记忆(http://www.iteblog.com/)
本文链接地址: 《在Fedora上部署Hadoop2.2.0伪分布式平台》(http://www.iteblog.com/archives/790)
首先,你得在电脑上面安装好jdk7,如何安装,这里就不说了,网上一大堆教程!然后安装好ssh,如何安装请参见本博客《Linux平台下安装SSH》、并设置好无密码登录(《Ubuntu和CentOS如何配置SSH使得无密码登陆》)。好了,上面的前提条件部署好之后,下面将进入Hadoop2.2.0的部署。
运行下面命令,将最新版的hadoop下载下来:
1 | [wyp @wyp hadoop]$ wget \ |
2 |
3 | http: //mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.2.0/hadoop-2.2.0.tar.gz |
1 | [wyp @wyp hadoop]$ tar -xvf hadoop- 2.2 . 0 .tar.gz |
01 | [wyp @wyp hadoop]$ ls -l |
02 | total 56 |
03 | drwxr-xr-x. 2 wyp wyp 4096 Oct 7 14 : 38 bin |
04 | drwxr-xr-x. 3 wyp wyp 4096 Oct 7 14 : 38 etc |
05 | drwxr-xr-x. 2 wyp wyp 4096 Oct 7 14 : 38 include |
06 | drwxr-xr-x. 3 wyp wyp 4096 Oct 7 14 : 38 lib |
07 | drwxr-xr-x. 2 wyp wyp 4096 Oct 7 14 : 38 libexec |
08 | -rw-r--r--. 1 wyp wyp 15164 Oct 7 14 : 46 LICENSE.txt |
09 | drwxrwxr-x. 3 wyp wyp 4096 Oct 28 14 : 38 logs |
10 | -rw-r--r--. 1 wyp wyp 101 Oct 7 14 : 46 NOTICE.txt |
11 | -rw-r--r--. 1 wyp wyp 1366 Oct 7 14 : 46 README.txt |
12 | drwxr-xr-x. 2 wyp wyp 4096 Oct 28 12 : 37 sbin |
13 | drwxr-xr-x. 4 wyp wyp 4096 Oct 7 14 : 38 share |
01 | [wyp @wyp hadoop]$ sudo vim /etc/profile |
02 |
03 | 在/etc/profile文件的末尾加上以下配置 |
04 |
05 | export HADOOP_DEV_HOME=/home/wyp/Downloads/hadoop |
06 | export PATH=$PATH:$HADOOP_DEV_HOME/bin |
07 | export PATH=$PATH:$HADOOP_DEV_HOME/sbin |
08 | export HADOOP_MAPARED_HOME=${HADOOP_DEV_HOME} |
09 | export HADOOP_COMMON_HOME=${HADOOP_DEV_HOME} |
10 | export HADOOP_HDFS_HOME=${HADOOP_DEV_HOME} |
11 | export YARN_HOME=${HADOOP_DEV_HOME} |
12 | export HADOOP_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop |
1 | [wyp @wyp hadoop]$ sudo source /etc/profile |
1 | [wyp @wyp hadoop]$ vim etc/hadoop/hadoop-env.sh |
2 |
3 | 在里面找到JAVA_HOME,并将它的值设置为你电脑jdk所在的绝对路径 |
4 |
5 | # The java implementation to use. |
6 | export JAVA_HOME=/home/wyp/Downloads/jdk1. 7 .0_45 |
01 | ----------------core-site.xml |
02 | <property> |
03 | <name>fs. default .name</name> |
04 | <value>hdfs: //localhost:8020</value> |
05 | < final > true </ final > |
06 | </property> |
07 |
08 | ------------------------- yarn-site.xml |
09 | <property> |
10 | <name>yarn.nodemanager.aux-services</name> |
11 | <value>mapreduce_shuffle</value> |
12 | </property> |
13 |
14 | <property> |
15 | <name>yarn.nodemanager.aux-services.mapreduce.shuffle. class </name> |
16 | <value>org.apache.hadoop.mapred.ShuffleHandler</value> |
17 | </property> |
18 |
19 | ------------------------ mapred-site.xml |
20 | <property> |
21 | <name>mapreduce.framework.name</name> |
22 | <value>yarn</value> |
23 | </property> |
24 |
25 | <property> |
26 | <name>mapred.system.dir</name> |
27 | <value>file:/opt/cloud/hadoop_space/mapred/system</value> |
28 | < final > true </ final > |
29 | </property> |
30 |
31 | <property> |
32 | <name>mapred.local.dir</name> |
33 | <value>file:/opt/cloud/hadoop_space/mapred/local</value> |
34 | < final > true </ final > |
35 | </property> |
36 |
37 | ----------- hdfs-site.xml |
38 | <property> |
39 | <name>dfs.namenode.name.dir</name> |
40 | <value>file:/opt/cloud/hadoop_space/dfs/name</value> |
41 | < final > true </ final > |
42 | </property> |
43 |
44 | <property> |
45 | <name>dfs.datanode.data.dir</name> |
46 | <value>file:/opt/cloud/hadoop_space/dfs/data</value> |
47 | <description>Determines where on the local |
48 | filesystem an DFS data node should store its blocks. |
49 | If this is a comma-delimited list of directories, |
50 | then data will be stored in all named |
51 | directories, typically on different devices. |
52 | Directories that do not exist are ignored. |
53 | </description> |
54 | < final > true </ final > |
55 | </property> |
56 | <property> |
57 | <name>dfs.replication</name> |
58 | <value> 1 </value> |
59 | </property> |
60 |
61 | <property> |
62 | <name>dfs.permissions</name> |
63 | <value> false </value> |
64 | </property> |
01 | [wyp @wyp hadoop]$ hdfs namenode -format |
02 | 13 / 10 / 28 16 : 47 : 33 INFO namenode.NameNode: STARTUP_MSG: |
03 | /************************************************************ |
04 |
05 | ..............此处省略好多文字...................... |
06 |
07 | ************************************************************/ |
08 | 13 / 10 / 28 16 : 47 : 33 INFO namenode.NameNode: registered UNIX signal |
09 | handlers for [TERM, HUP, INT] |
10 | Formatting using clusterid: CID-9931f367-92d3- 4693 -a706-d83e120cacd6 |
11 | 13 / 10 / 28 16 : 47 : 34 INFO namenode.HostFileManager: read includes: |
12 | HostSet( |
13 | ) |
14 | 13 / 10 / 28 16 : 47 : 34 INFO namenode.HostFileManager: read excludes: |
15 | HostSet( |
16 | ) |
17 |
18 | ..............此处也省略好多文字...................... |
19 |
20 | 13 / 10 / 28 16 : 47 : 38 INFO util.ExitUtil: Exiting with status 0 |
21 | 13 / 10 / 28 16 : 47 : 38 INFO namenode.NameNode: SHUTDOWN_MSG: |
22 | /************************************************************ |
23 | SHUTDOWN_MSG: Shutting down NameNode at wyp/192.168.142.138 |
24 | ************************************************************/ |
25 | [wyp @wyp hadoop]$ |
1 | [wyp @wyp hadoop]$sbin/start-dfs.sh |
2 | [wyp @wyp hadoop]$sbin/start-yarn.sh |
01 | [wyp @wyp hadoop]$jps |
02 | 9582 Main |
03 | 9684 RemoteMavenServer |
04 | 7011 DataNode |
05 | 7412 ResourceManager |
06 | 17423 Jps |
07 | 7528 NodeManager |
08 | 7222 SecondaryNameNode |
09 | 6832 NameNode |
10 | [wyp @wyp hadoop]$ |
这里附上如何关闭Hadoop各个服务
1 | [wyp @wyp hadoop]$sbin/stop-dfs.sh |
2 | [wyp @wyp hadoop]$sbin/stop-yarn.sh |
尊重原创,转载请注明: 转载自过往记忆(http://www.iteblog.com/)
本文链接地址: 《在Fedora上部署Hadoop2.2.0伪分布式平台》(http://www.iteblog.com/archives/790)
相关文章推荐
- hadoop配置Hadoop 2.0--分布式环境搭建安装配置
- Hadoop2.0伪分布式平台环境搭建
- Hadoop 2.0:分布式环境搭建安装配置
- Hadoop伪分布式搭建-(1)
- 大数据教程(三)—— Hadoop集群分布式坏境搭建
- 【Hadoop】搭建完全分布式的hadoop
- Hadoop分布式集群的搭建
- Hadoop伪分布式环境搭建
- hadoop伪分布式搭建
- hadoop - hadoop2.6 分布式 - 集群环境搭建 - JDK安装配置和SSH安装配置与免密码登陆(集群中)
- hadoop+hbase+zookeeper 分布式集群搭建完美运行
- 三台阿里云服务器搭建完全分布式hadoop
- Ubuntu上搭建Hadoop环境(伪分布式)
- 详解VMware12使用三台虚拟机Ubuntu16.04系统搭建hadoop-2.7.1+hbase-1.2.4(完全分布式)
- Hadoop-2.6.0完全分布式搭建
- Ubantu下搭建Hadoop1.x完全分布式集群
- Hadoop 2.2 YARN分布式集群搭建配置流程
- 基于WindowsXP环境的Hadoop完全分布式环境的搭建
- 在Linux下搭建Hadoop分布式集群
- Hadoop2.7.2 Centos 完全分布式集群环境搭建 (2) - Hadoop安装与配置(完全分布式)