HDFS 权限问题:Permission denied
2016-07-15 11:49
465 查看
异常信息:
Exception in thread "main" org.apache.hadoop.security.AccessControlException: Permission denied: user=Administrator, access=WRITE, inode="/spark/global":root:supergroup:drwxr-xr-x
at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkFsPermission(FSPermissionChecker.java:271)
at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.check(FSPermissionChecker.java:257)
这是因为当前用户Administrator没有对/spark/global的写入权限. 有几种方式解决:
1. 增加本地环境变量
2. 修改本地用户账号
3. 修改hdfs配置 core-site.xml ,添加 dfs.permissions : false, 并修改目录权限可写入
本人通过第一种方式,添加本地环境变量HADOOP_USER_NAME解决。
参考源文:http://www.huqiwen.com/2013/07/18/hdfs-permission-denied/
Exception in thread "main" org.apache.hadoop.security.AccessControlException: Permission denied: user=Administrator, access=WRITE, inode="/spark/global":root:supergroup:drwxr-xr-x
at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkFsPermission(FSPermissionChecker.java:271)
at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.check(FSPermissionChecker.java:257)
这是因为当前用户Administrator没有对/spark/global的写入权限. 有几种方式解决:
1. 增加本地环境变量
2. 修改本地用户账号
3. 修改hdfs配置 core-site.xml ,添加 dfs.permissions : false, 并修改目录权限可写入
本人通过第一种方式,添加本地环境变量HADOOP_USER_NAME解决。
参考源文:http://www.huqiwen.com/2013/07/18/hdfs-permission-denied/
相关文章推荐
- hdfs dfsadmin -rollingUpgrade解读
- eclipse/intellij idea 远程调试hadoop 2.6.0
- windows 32位eclipse远程hadoop开发环境搭建
- HDFS安全模式详解
- HDFS理论及基本命令
- HDFS小文件处理解决方案总结+facebook(HayStack) + 淘宝(TFS)
- HDFS的Block数据balancer重分布实战
- Wrong FS: hdfs expected: file:
- ssh免登录
- HDFS写入和读取过程
- hdfs 出现坏块
- hdfs原理
- 一文看懂大数据的技术生态圈,Hadoop,hive,spark都有了
- spark 本地文件上传hdfs
- the directory item limit is exceed: limit=1048576问题的解决
- hdfs
- CentOS7安装Hadoop2.7完整流程
- HDFS中的关键概念(一)
- kafka connect 数据写hdfs详解
- 【Twitter Storm系列】flume-ng+Kafka+Storm+HDFS 实时系统搭建