Hadoop学习笔记(二)--添加data节点和实现远程挂载HDFS
2013-04-27 17:04
639 查看
一、添加新的datanode节点
修改namenode服务器的上hadoop的配置文件slave,在该文件中添加新加入集群的
服务器名称(hostname),并添加在/etc/hosts文件中添加对应的解析项,内容如下:
修改完成后,将整个hadoop文件的目录和JDK目录复制到新节点(这里是datanode,一下都用datanode来表示)。
修改datanode上面的/etc/hosts文件,如下:
配置datanode服务器的环境变量,为了方便这里写入/etc/profile文件(也可以写到对应用户的/home/USER/.bash_profile或者/root/.bash_profile文件中),添加的内容如下:
完成上述操作后,启动datanode服务器上的HDFS
启动后该节点会自动加入之前的hadoop集群。
二、WebDav
挂载WebDav提供的网络存储,需要安装三个包,分别是:fuse、neon和davfs2
1、 编译安装fuse
如果编译完成后不确定是否正常编译,可以用命令echo $?来获取返回值确认,0表示正常,其它均表示有错误。
2、编译安装neon
3、编译安装davfs2
4、挂载webdav
挂载hdfs需要使用命令mount.davfs,而使用该命令需要davfs2用户,所以先创建该用户:
之后开始挂载:
完成后就可以进入挂载点查看了。祝大家成功
Hadoop学习笔记(一)
修改namenode服务器的上hadoop的配置文件slave,在该文件中添加新加入集群的
服务器名称(hostname),并添加在/etc/hosts文件中添加对应的解析项,内容如下:
[root@namenode~]# cat /etc/hosts 127.0.0.1 localhost.localdomain localhost ::1 namenode localhost6.localdomain6 localhost6 192.168.2.9 namenode 192.168.5.55 nagios-server 192.168.2.4 datanode
修改完成后,将整个hadoop文件的目录和JDK目录复制到新节点(这里是datanode,一下都用datanode来表示)。
[root@namenode ~]# scp –pr /opt/hadoop 192.168.2.4:/opt/hadoop [root@namenode ~]# scp –pr /usr/java 192.168.2.4:/usr/java
修改datanode上面的/etc/hosts文件,如下:
[root@datanode ~]# cat /etc/hosts 127.0.0.1 localhost.localdomain localhost ::1 datanode localhost6.localdomain6 localhost6 192.168.2.9 namenode 192.168.5.55 nagios-server 192.168.2.4 datanode
配置datanode服务器的环境变量,为了方便这里写入/etc/profile文件(也可以写到对应用户的/home/USER/.bash_profile或者/root/.bash_profile文件中),添加的内容如下:
export OS_ARCH=amd64 export OS_BIT=64 export JAVA_HOME=/usr/java/jdk1.6.0_14 export CLASSPATH=$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar export ANT_HOME=/usr/local/ant export PATH=$JAVA_HOME/bin:$PATH export ZOOKEEPER_INSTALL=/opt/hadoop/zookeeper export PATH=$PATH:$ZOOKEEPER_INSTALL/bin export HADOOP_HOME=/opt/hadoop/hadoop export HADOOP_INSTALL=/opt/hadoop/hadoop export PATH=$PATH:$HADOOP_HOME/bin export LANG=zh_CN.GBK export HIVE_HOME=/opt/hadoop/hive export PATH=$HIVE_HOME/bin:$PATH:$ANT_HOME/bin export LD_LIBRARY_PATH=$JAVA_HOME/jre/lib/$OS_ARCH/server:${HADOOP_HOME}/c++/Linux-$OS_ARCH-$OS_BIT/lib:/usr/local/lib:/usr/lib
完成上述操作后,启动datanode服务器上的HDFS
[root@datanode ~]#start-dfs.sh
启动后该节点会自动加入之前的hadoop集群。
二、WebDav
挂载WebDav提供的网络存储,需要安装三个包,分别是:fuse、neon和davfs2
1、 编译安装fuse
[root@datanode src]# tar fvxz fuse-2.8.5.tar.gz [root@datanode src]# cd fuse-2.8.5 [root@datanode fuse-2.8.5]# ./configure
如果编译完成后不确定是否正常编译,可以用命令echo $?来获取返回值确认,0表示正常,其它均表示有错误。
[root@datanode fuse-2.8.5]# make && make install
2、编译安装neon
[root@datanode src]# tar fvxz neon-0.29.6.tar.gz [root@datanode src]# cd neon-0.29.6 [root@datanode neon-0.29.6]# ./configure [root@datanode neon-0.29.6]# make && make install
3、编译安装davfs2
[root@datanode src]# tar fvxz davfs2-1.4.6.tar.gz [root@datanode src]# cd davfs2-1.4.6 [root@datanode davfs2-1.4.6]# ./configure [root@datanode davfs2-1.4.6]# make && make install
4、挂载webdav
挂载hdfs需要使用命令mount.davfs,而使用该命令需要davfs2用户,所以先创建该用户:
[root@datanode~]# useradd davfs2
之后开始挂载:
[root@datanode ~]# mount.davfs http://192.168.2.9:8080/hdfs-webdav /hdfs Please enter the username to authenticate with server http://192.168.2.9:8080/hdfs-webdav or hit enter for none. Username: davfs2 Please enter the password to authenticate user davfs2 with server http://192.168.2.9:8080/hdfs-webdav or hit enter for none. Password:
完成后就可以进入挂载点查看了。祝大家成功
Hadoop学习笔记(一)
相关文章推荐
- hadoop学习笔记4:java实现hdfs -ls/-lsr
- Hadoop--学习笔记 在Eclipse中操作远程hdfs文件
- 云计算学习笔记---异常处理---hadoop问题处理ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.lang.NullPoin
- Hadoop学习笔记—13.分布式集群中节点的动态添加与下架
- Hadoop学习笔记—13.分布式集群中节点的动态添加与下架
- Hadoop学习(三)— hdfs : NameNode与DataNode的实现机制
- 安装、进程-云计算学习笔记---hadoop的简介,以及安装,用命令实现对hdfs系统进行文件的上传下载-by小雨
- Hadoop学习(三)— hdfs : NameNode与DataNode的实现机制
- Hadoop学习笔记—13.分布式集群中节点的动态添加与下架
- 云计算学习笔记004---hadoop的简介,以及安装,用命令实现对hdfs系统进行文件的上传下载
- hadoop生态系统学习之路(三)java实现上传文件(本地或ftp)至hdfs
- Hadoop HDFS 添加节点
- hadoop学习笔记--NameNode和DataNode以及容错处理
- 云计算学习笔记---Hadoop简介,hadoop实现原理,NoSQL介绍...与传统关系型数据库对应关系,云计算面临的挑战
- 【Linux学习笔记】Linux主机如何实现无需输入密码的远程登录或脚本远程执行
- [Spring Data Repositories]学习笔记--为repository添加通用的方法
- [hadoop学习笔记] 之 eclipse插件操作hdfs出现的权限问题
- hadoop学习笔记之hdfs的文件上传下载
- hadoop学习笔记--5.HDFS的java api接口访问
- Hadoop源码分析笔记(七):HDFS非远程调用接口