hadoop 的简单搭建部署
2014-07-29 19:26
183 查看
1. 安装jdk
2. 配置hosts 与hostname
sudo vi /etc/hosts (配置namenode和datanode)
192.168.1.80 ns (主机名,尤其是namenode)
192.168.1.81 ds1
......
192.168.1.85 dsn
所有节点均按以上配置
修改各结点上的主机名:hostname ns(临时生效,可通过修改/etc/hostname)
其它结点也和上面hosts中的主机名配置保持一致
3. 安装配置ssh
ssh-keygen –t rsa
将ns上的公钥拷贝到各个ds:
scp ~/.ssh/id_rsa.pub hadoop@target:~/master_key
在除ns外的节点上:
mkdir ~/.ssh
chmod 700 ~/.ssh
cat ~/master_key >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys
尝试从ns用ssh连接其它节点,如果不需要输入密码则配置成功
4. 安装hadoop (所有节点操作和配置均相同)
(masters 和 slaves 这两个配置文件可以只在ns上编辑配置)
vi ~/hadoop-1.0.3/conf/masters 配置 namenode 的 IP
vi ~/hadoop-1.0.3/conf/slaves 配置 datanode 的 IP
配置hadoop-env.sh、hdfs-site.xml和core-site.xml
根据这些配置文件的格式,配置自己需要的
(所有节点操作和配置均相同)
5. hadoop的架构
hadoop使用主/从(M/S)架构,主要由NameNode,DataNode,secondary NameNode,JobTracker,TaskTracker组成。
其中NameNode,secondary
NameNode,JobTracker运行在Master节点上,DataNode和TaskTracker运行在Slave节点上。
Namenode:NameNode是HDFS的守护程序,负责记录文件是如何分割成数据块的,以及这些数据块被存储到哪些数据节点上。它的功能是对内存及I/O进行集中管理。
Datanode:集群中每个从服务器都运行一个DataNode后台程序,后台程序负责把HDFS数据块读写到本地文件系统。需要读写数据时,由NameNode告诉客户端去哪个DataNode进行具体的读写操作。
Secondary
Namenode:是一个用来监控HDFS状态的辅助后台程序,如果NameNode发生问题,可以使用Secondary NameNode作为备用的NameNode。
JobTracker:
后台程序用来连接应用程序与Hadoop,用户应用提交到集群后,由JobTracker决定哪个文件处理哪个task执行,一旦某个task失败,JobTracker会自动开启这个task。
TaskTracker负责存储数据的DataNode相结合,位于从节点,负责各自的task。
6. 启动Hadoop
执行 ./hadoop namenode -format
执行start-all.sh
打开浏览器,输入http://localhost:50030
hadoop
的操作命令 ./bin/hadoop --help 就能看到
配置文件中需要的目录不建议手动去创建,
在格式化活启动时会自动检查自己创建,若手动创建的目录权限不对,会影响整个hadoop的启动
参考的资料:
http://baike.baidu.com/view/3061630.htm?fr=aladdin http://coolriver.diandian.com/post/2012-07-27/40031917001 http://blog.csdn.net/wangloveall/article/details/20837019 http://www.datastax.com/what-we-offer/products-services/datastax-enterprise http://hadoop.apache.org/docs/r1.0.4/cn/quickstart.html#PreReqs http://www.cnblogs.com/skyme/archive/2011/10/26/2223984.html
2. 配置hosts 与hostname
sudo vi /etc/hosts (配置namenode和datanode)
192.168.1.80 ns (主机名,尤其是namenode)
192.168.1.81 ds1
......
192.168.1.85 dsn
所有节点均按以上配置
修改各结点上的主机名:hostname ns(临时生效,可通过修改/etc/hostname)
其它结点也和上面hosts中的主机名配置保持一致
3. 安装配置ssh
ssh-keygen –t rsa
将ns上的公钥拷贝到各个ds:
scp ~/.ssh/id_rsa.pub hadoop@target:~/master_key
在除ns外的节点上:
mkdir ~/.ssh
chmod 700 ~/.ssh
cat ~/master_key >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys
尝试从ns用ssh连接其它节点,如果不需要输入密码则配置成功
4. 安装hadoop (所有节点操作和配置均相同)
(masters 和 slaves 这两个配置文件可以只在ns上编辑配置)
vi ~/hadoop-1.0.3/conf/masters 配置 namenode 的 IP
vi ~/hadoop-1.0.3/conf/slaves 配置 datanode 的 IP
配置hadoop-env.sh、hdfs-site.xml和core-site.xml
根据这些配置文件的格式,配置自己需要的
(所有节点操作和配置均相同)
5. hadoop的架构
hadoop使用主/从(M/S)架构,主要由NameNode,DataNode,secondary NameNode,JobTracker,TaskTracker组成。
其中NameNode,secondary
NameNode,JobTracker运行在Master节点上,DataNode和TaskTracker运行在Slave节点上。
Namenode:NameNode是HDFS的守护程序,负责记录文件是如何分割成数据块的,以及这些数据块被存储到哪些数据节点上。它的功能是对内存及I/O进行集中管理。
Datanode:集群中每个从服务器都运行一个DataNode后台程序,后台程序负责把HDFS数据块读写到本地文件系统。需要读写数据时,由NameNode告诉客户端去哪个DataNode进行具体的读写操作。
Secondary
Namenode:是一个用来监控HDFS状态的辅助后台程序,如果NameNode发生问题,可以使用Secondary NameNode作为备用的NameNode。
JobTracker:
后台程序用来连接应用程序与Hadoop,用户应用提交到集群后,由JobTracker决定哪个文件处理哪个task执行,一旦某个task失败,JobTracker会自动开启这个task。
TaskTracker负责存储数据的DataNode相结合,位于从节点,负责各自的task。
6. 启动Hadoop
执行 ./hadoop namenode -format
执行start-all.sh
打开浏览器,输入http://localhost:50030
hadoop
的操作命令 ./bin/hadoop --help 就能看到
配置文件中需要的目录不建议手动去创建,
在格式化活启动时会自动检查自己创建,若手动创建的目录权限不对,会影响整个hadoop的启动
参考的资料:
http://baike.baidu.com/view/3061630.htm?fr=aladdin http://coolriver.diandian.com/post/2012-07-27/40031917001 http://blog.csdn.net/wangloveall/article/details/20837019 http://www.datastax.com/what-we-offer/products-services/datastax-enterprise http://hadoop.apache.org/docs/r1.0.4/cn/quickstart.html#PreReqs http://www.cnblogs.com/skyme/archive/2011/10/26/2223984.html
相关文章推荐
- Hadoop初体验——搭建hadoop简单实现文本数据全局排序
- centos hadoop 单机部署环境搭建
- zookeeper集群搭建+hadoop集群部署
- windows 2008 server web服务器的搭建以及站点的简单部署
- hadoop 1.x 伪分布式部署及windows开发环境搭建
- hadoop hdfs搭建 mapreduce环境搭建 wordcount程序简单注释
- Flume1.5.0的安装、部署、简单应用(含伪分布式、与hadoop2.2.0、hbase0.96的案例)
- 【大数据】搭建简单的Hadoop集群
- 一种解决hadoop搭建出现的各种问题的简单粗暴的办法
- 继上文搭建hadoop-2.6.0三台节点部署
- Openfiler在vmware vsphere中应用(一)简单部署搭建openfiler
- [hadoop]成功搭建Hadoop集群后简单实验
- hadoop学习笔记-基于hdfs搭建简单网盘应用
- Flume1.5.0的安装、部署、简单应用(含分布式、与hadoop2.2.0、hbase0.96的案例)
- [置顶] 编写简单的Mapreduce程序并部署在Hadoop2.2.0上运行
- 简单java web应用程序搭建与部署
- Hadoop 简单集群搭建
- linux(centos5.8)环境下Hadoop 2.0.2单机部署以及Eclipse环境搭建
- 简单的hadoop多节点环境搭建
- hadoop简单环境搭建备忘录