【hadoop学习笔记】1.hadoop安装
2012-05-28 22:32
411 查看
环境:Ubuntu11.4
准备工作:
a.先安装jdk
b.修改/etc/hosts,绑定 10.16.110.7 master (最好不要用127.0.0.1 localhost 后面会出现意想不到的错误)
1.下载hadoop-1.0.2
在linux下执行 wget http://apache.etoak.com/hadoop/common/hadoop-1.0.2/hadoop-1.0.2.tar.gz
解压 tar zxvf hadoop-1.0.2.tar.gz
cd hadoop-1.0.2/目录
2、配置hadoop伪分布式环境,运行hadoop
进入conf目录
修改conf/core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
</configuration>
~
<!-- fs.default.name - 这是一个描述集群中NameNode结点的URI(包括协议、主机名称、端口号),集群里面的每一台机器都需要知道NameNode的地址。DataNode结点会先在NameNode上注册,这样它们的数据才可以被使用。独立的客户端程序通过这个URI跟DataNode交互,以取得文件的块列表。-->
修改conf/mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>master:9001</value>
</property>
</configuration>
<!-- mapred.job.tracker -JobTracker的主机(或者IP)和端口。-->
修改conf/hdfs-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
<!-- dfs.replication -它决定着 系统里面的文件块的数据备份个数。对于一个实际的应用,它 应该被设为3(这个数字并没有上限,但更多的备份可能并没有作用,而且会占用更多的空间)。少于三个的备份,可能会影响到数据的可靠性(系统故障时,也许会造成数据丢失)-->
修改conf/hadoop-env.sh 配置JAVA_HOME export JAVA_HOME=/home/yongkang/tools/java
在/conf/master中加入主机的ip 10.16.110.7
在/conf/salves中加入slaves机器 10.16.110.7
运行:
格式化分布式文件系统:$ bin/hadoop namenode –format
启动hadoop进程:$ bin/start-all.sh
是否启动成功,可访问以下url
NameNode – http://10.16.110.7:50070/
JobTracker – http://10.16.110.7:50030/
如果不能访问,检查logs目录下的日志分析原因。
正常运行后,执行jps命令,应该可以看到有5个hadoop相关进程
:yongkang@yongkang-OptiPlex-760:~/tools/hadoop-1.0.2/bin$2>yongkang@yongkang-OptiPlex-760:~/tools/hadoop-1.0.2/bin$ jps
26999 Jps
11937 SecondaryNameNode
11413 NameNode
12024 JobTracker
12281 TaskTracker
11662 DataNode
准备工作:
a.先安装jdk
b.修改/etc/hosts,绑定 10.16.110.7 master (最好不要用127.0.0.1 localhost 后面会出现意想不到的错误)
1.下载hadoop-1.0.2
在linux下执行 wget http://apache.etoak.com/hadoop/common/hadoop-1.0.2/hadoop-1.0.2.tar.gz
解压 tar zxvf hadoop-1.0.2.tar.gz
cd hadoop-1.0.2/目录
2、配置hadoop伪分布式环境,运行hadoop
进入conf目录
修改conf/core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
</configuration>
~
<!-- fs.default.name - 这是一个描述集群中NameNode结点的URI(包括协议、主机名称、端口号),集群里面的每一台机器都需要知道NameNode的地址。DataNode结点会先在NameNode上注册,这样它们的数据才可以被使用。独立的客户端程序通过这个URI跟DataNode交互,以取得文件的块列表。-->
修改conf/mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>master:9001</value>
</property>
</configuration>
<!-- mapred.job.tracker -JobTracker的主机(或者IP)和端口。-->
修改conf/hdfs-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
<!-- dfs.replication -它决定着 系统里面的文件块的数据备份个数。对于一个实际的应用,它 应该被设为3(这个数字并没有上限,但更多的备份可能并没有作用,而且会占用更多的空间)。少于三个的备份,可能会影响到数据的可靠性(系统故障时,也许会造成数据丢失)-->
修改conf/hadoop-env.sh 配置JAVA_HOME export JAVA_HOME=/home/yongkang/tools/java
在/conf/master中加入主机的ip 10.16.110.7
在/conf/salves中加入slaves机器 10.16.110.7
运行:
格式化分布式文件系统:$ bin/hadoop namenode –format
启动hadoop进程:$ bin/start-all.sh
是否启动成功,可访问以下url
NameNode – http://10.16.110.7:50070/
JobTracker – http://10.16.110.7:50030/
如果不能访问,检查logs目录下的日志分析原因。
正常运行后,执行jps命令,应该可以看到有5个hadoop相关进程
:yongkang@yongkang-OptiPlex-760:~/tools/hadoop-1.0.2/bin$2>yongkang@yongkang-OptiPlex-760:~/tools/hadoop-1.0.2/bin$ jps
26999 Jps
11937 SecondaryNameNode
11413 NameNode
12024 JobTracker
12281 TaskTracker
11662 DataNode
相关文章推荐
- hadoop学习笔记之hadoop集群安装配置
- hadoop学习笔记之完全分布模式安装
- Hadoop学习笔记之HBase安装
- Hadoop学习笔记0004——eclipse安装hadoop插件
- Hadoop学习笔记-011-CentOS_6.5_64_HA高可用-Zookeeper3.4.5安装Kafka+消息监控KafkaOffsetMonitor
- 安装Hadoop——Hadoop实战初级部分学习笔记
- hadoop学习笔记1--centos6.2 64位 最小化(minimal)安装配置
- hadoop学习笔记-2-安装
- hadoop学习笔记之-生产环境Hadoop大集群配置安装
- 第114讲:Hadoop集群安装解析学习笔记
- Hadoop学习笔记(二)---linux中JDK的安装
- Hadoop学习笔记_安装篇之一:Hadoop安装
- Hadoop学习笔记二 安装部署
- Hadoop学习笔记(3)——Hadoop的安装、配置和启动
- hadoop学习笔记--10.hive安装与配置
- Hadoop学习笔记(一)Hadoop的单节点安装
- hadoop编程入门学习笔记-1 安装运行hadoop
- Hadoop学习笔记3---安装并运行Hadoop
- Hadoop学习笔记(安装--下篇)
- C# Hadoop学习笔记(一)—环境安装