您的位置:首页 > 大数据 > Hadoop

HDFS 权限问题:Permission denied

2016-07-15 11:49 465 查看
异常信息: 

Exception in thread "main" org.apache.hadoop.security.AccessControlException: Permission denied: user=Administrator, access=WRITE, inode="/spark/global":root:supergroup:drwxr-xr-x

at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkFsPermission(FSPermissionChecker.java:271)
at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.check(FSPermissionChecker.java:257)

这是因为当前用户Administrator没有对/spark/global的写入权限. 有几种方式解决:

1. 增加本地环境变量

2. 修改本地用户账号

3. 修改hdfs配置 core-site.xml ,添加 dfs.permissions : false, 并修改目录权限可写入

本人通过第一种方式,添加本地环境变量HADOOP_USER_NAME解决。

参考源文:http://www.huqiwen.com/2013/07/18/hdfs-permission-denied/
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: