hadoop的简单安装部署过程
2016-07-20 09:23
309 查看
hadoop的简单安装部署过程
为了做些实验,所以在自己笔记本电脑上装了个虚拟机,系统为CentOS6.2,JDK1.7,hadoop-1.0.1
为了简单起见,部署伪分布式,即仅有一个节点,这个节点既是Master,也是Slave,既是NameNode,也是DataNode,既是JobTracker,也是TaskTracker。 部署总体说明:伪分布式部署比较简单,只需要搞定4个配置文件即可,分别是:1.hadoop-env.sh //用以指定JDK的位置 2.core-site.xml //核心配置,用以指定HDFS地址及端口号3.hdfs-site.xml //HDFS配置,可以指定备份数量,默认为3,伪分布式需要配置为14.mapred-site.xml //用以配置JboTracker的地址及端口 配置完上述文件之后,还差两步:1.格式化HDFS文件系统2.启动并验证 正式开始:1.配置hadoop-env.sh由于忘记了JDK的位置,用java -verbose查了一下,找到/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.85.x86_64/jre 因此,在hadoop-env.sh中写入如下一行(其实可以找到指定位置,读者可以自己发现)export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.85.x86_64/jre 2.配置core-site.xml<?xmlversion="1.0"?>
<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>
<!-- Putsite-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
//说明:其实其他部分已经有了,只需要自己敲入黑色加粗部分就可以了 3.配置hdfs-site.xml<?xmlversion="1.0"?>
<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>
<!-- Putsite-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
4.配置mapred-site.xml<?xmlversion="1.0"?>
<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>
<!-- Putsite-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
进入最后两步:1.格式化hdfs[root@wjz hadoop]# cd /usr/local/hadoop/bin //进入hadoop的可执行文件bin目录[root@wjz bin]# ./hadoop namenode -format //执行格式化命令 2.启动并验证[root@wjz bin]# ./start-all.sh 打开浏览器验证,分别输入如下网址: http://localhost:50030 (MapReduce的WEB页面) http://localhost:50070 (HDFS的WEB页面)
----搞定,OK了
为了做些实验,所以在自己笔记本电脑上装了个虚拟机,系统为CentOS6.2,JDK1.7,hadoop-1.0.1
为了简单起见,部署伪分布式,即仅有一个节点,这个节点既是Master,也是Slave,既是NameNode,也是DataNode,既是JobTracker,也是TaskTracker。 部署总体说明:伪分布式部署比较简单,只需要搞定4个配置文件即可,分别是:1.hadoop-env.sh //用以指定JDK的位置 2.core-site.xml //核心配置,用以指定HDFS地址及端口号3.hdfs-site.xml //HDFS配置,可以指定备份数量,默认为3,伪分布式需要配置为14.mapred-site.xml //用以配置JboTracker的地址及端口 配置完上述文件之后,还差两步:1.格式化HDFS文件系统2.启动并验证 正式开始:1.配置hadoop-env.sh由于忘记了JDK的位置,用java -verbose查了一下,找到/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.85.x86_64/jre 因此,在hadoop-env.sh中写入如下一行(其实可以找到指定位置,读者可以自己发现)export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.85.x86_64/jre 2.配置core-site.xml<?xmlversion="1.0"?>
<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>
<!-- Putsite-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
//说明:其实其他部分已经有了,只需要自己敲入黑色加粗部分就可以了 3.配置hdfs-site.xml<?xmlversion="1.0"?>
<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>
<!-- Putsite-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
4.配置mapred-site.xml<?xmlversion="1.0"?>
<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>
<!-- Putsite-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
进入最后两步:1.格式化hdfs[root@wjz hadoop]# cd /usr/local/hadoop/bin //进入hadoop的可执行文件bin目录[root@wjz bin]# ./hadoop namenode -format //执行格式化命令 2.启动并验证[root@wjz bin]# ./start-all.sh 打开浏览器验证,分别输入如下网址: http://localhost:50030 (MapReduce的WEB页面) http://localhost:50070 (HDFS的WEB页面)
----搞定,OK了
相关文章推荐
- XP下使用虚拟机安装配置Solaris[多图]
- VirtualBox虚拟机XP与宿主机Ubuntu互访共享文件夹
- 可以买到 Linux 电脑的 10 个地方
- Linux下三大免费桌面虚拟机评测
- test
- 当存储无可用空间时无法启动虚拟机
- Windows 8虚拟机不能全屏的解决方法
- 使用VMware Workstation虚拟机保护数据
- 用 GNOME Boxes 下载一个操作系统镜像
- 天才从哪里来?(Where Does Talent Really Come From?)
- 重温80年前的美国
- 基督教笔记(六):阿弥士人(Amish)
- 美国1946年就业法(Employment Act of 1946)
- 美元(Dollar)
- 花生牛轧糖
- 权利法案(Bill of Rights)
- 基督教笔记(七):摩门教(Mormon)
- 伟大的报纸是什么样的?
- 中国畅销书的销量
- centos 7 图形化安装及VNC远程连接