关于HDFS NFS3的配置
2016-03-21 13:44
323 查看
1、在core-site.xml中配置
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>root</value>
</property>
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>spark01</value>
</property>
2、在hdfs-site.xml中配置
<property>
<name>nfs.dump.dir</name>
<value>/tmp/.hdfs-nfs</value>
</property>
<property>
<name>nfs.exports.allowed.hosts</name>
<value>* rw</value>
</property>
3、创建挂载目录:
mkdir /mnt/hdfsnfs
4、把hdfs挂载到 /mnt/hdfsnfs目录下
首先启动Hadoop自带的portmap和nfs3服务进程:
hadoop-daemon.sh start portmap
hadoop-daemon.sh start nfs3
然后挂载:
mount -t nfs -o vers=3,proto=tcp,nolock,noacl spark01:/ /mnt/hdfsnfs/
这样就完成NFS3的配置。
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>root</value>
</property>
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>spark01</value>
</property>
2、在hdfs-site.xml中配置
<property>
<name>nfs.dump.dir</name>
<value>/tmp/.hdfs-nfs</value>
</property>
<property>
<name>nfs.exports.allowed.hosts</name>
<value>* rw</value>
</property>
3、创建挂载目录:
mkdir /mnt/hdfsnfs
4、把hdfs挂载到 /mnt/hdfsnfs目录下
首先启动Hadoop自带的portmap和nfs3服务进程:
hadoop-daemon.sh start portmap
hadoop-daemon.sh start nfs3
然后挂载:
mount -t nfs -o vers=3,proto=tcp,nolock,noacl spark01:/ /mnt/hdfsnfs/
这样就完成NFS3的配置。
相关文章推荐
- spark streaming 写入db,hdfs
- HDFS 小文件处理——应用程序实现
- 2. hdfs
- windows通过thrift访问hdfs
- HDFS源码分析心跳汇报之周期性心跳
- HDFS源码分析心跳汇报之数据块汇报
- HDFS源码分析心跳汇报之BPServiceActor工作线程运行流程
- [置顶] HDFS源码分析心跳汇报之数据块增量汇报
- HDFS文件命令
- HDFS的java操作方式(第七讲)
- HDFS上传下载小例子
- 经典漫画讲解HDFS原理
- 伪分布重新格式化hdfs
- HDFS下载报错NullPointerException
- hdfs file md5 计算,实现本地与hdfs同步文件
- hdfs笔记
- HDFS原理分析(一)
- HDFS体系结构和操作(第六讲)
- HDFS分布式文件系统(伪分布式环境搭建)(第五讲)
- HDFS源码分析心跳汇报之整体结构