.在重新部署了oozie-site.xml之后,不能够寻找到工作流作业对应的hadoop jobid
2016-08-18 16:33
375 查看
其因在于对history和tem的文件权限不够。我们由于是eclipse直接连接到hdfs上的,在eclipse直接创建文件以及上传文件,导致我
们对这些文件的访问权限就是我们自己本地的电脑的username,所以没有root权限那么高,以至于在使用oozie的时候(我并不知道为什么我们在
创建hadoop项目的mapreduce的时候为什么就能直接访问hdfs下的东西),不能够对所创建的这些文件直接访问,所以就只有去改你所有自己创建
的文件夹的权限为为更高的或者直接为root。
们对这些文件的访问权限就是我们自己本地的电脑的username,所以没有root权限那么高,以至于在使用oozie的时候(我并不知道为什么我们在
创建hadoop项目的mapreduce的时候为什么就能直接访问hdfs下的东西),不能够对所创建的这些文件直接访问,所以就只有去改你所有自己创建
的文件夹的权限为为更高的或者直接为root。
相关文章推荐
- hadoop2.2.0 maprd-site.xml--jobhistory properties
- Hadoop集群安装 (4) 配置JobTracker_conf/mapred-site.xml
- hadoop2.2.0 mapred-site.xml--Job Notification Configuration
- hadoop2.2.0 maprd-site.xml--jobhistory properties
- hadoop2.2.0 mapred-site.xml--Job Notification Configuration
- ambari,hadoop本地源 部署http://blog.chinaunix.net/xmlrpc.php?r=blog/article&uid=26230811&id=4023821
- 输出、状态-hadoop源码TaskAttemptID TaskTrackerAction JobTracker,FileOutputCommitter相关-by小雨
- Hadoop集群安装 (2) 配置conf/core-site.xml
- Hadoop集群安装 (3) 配置conf/hdfs-site.xml
- Android工程clean之后发现不能生产R.java,那么应该是main.xml之类的地方出错了。修改后重新编译即可
- hadoop的Jobid
- Hadoop 參數設定 – hdfs-site.xml
- Hadoop 參數設定 – core-site.xml
- 删除作业计划出错(DELETE语句与 REFERENCE约束"FK_subplan_job_id"冲突。)的解决
- Hadoop配置项整理(mapred-site.xml)
- [Hadoop] 50030/jobtracker.jsp监控不到eclipse提交的作业
- hadoop作业调度详解之JobClient
- hadoop的Jobid
- 使用DTD文档对 xml 1 作业中的xml文档进行约束,其中河北省只能依次包含石家庄市、张家口市、保定市这三个市,保定市可以有多个或者1个,给保定市定义属性编号为ID类型,必须有;属性name为字符
- SQL 2005删除作业计划出错(DELETE语句与 REFERENCE约束"FK_subplan_job_id"冲突。)的解决