hive执行任务时异常终止原因分析
2018-01-11 11:14
316 查看
异常日志如图所示,在执行任务快结束时,任务异常终止了,通过查看xxxx:8088/cluster页面可以发现任务已终止
根据日志分析发现,异常原因为:could not find any valid local directory for output,猜测应该由于磁盘被占满的原因导致任务无法继续进行。
查看core-site.xml配置,发现hadoop.tmp.dir配置路径为/var/hadoop_tmp,而这个路径的存储空间基本被占满。
进一步分析发现,运行hive任务时,有个目录会存储大量的临时数据:/var/hadoop_tmp/nm-local-dir/usercache/user01/filecache
,该路径是由yarn-site.xml文件的yarn.nodemanager.local-dirs配置的,默认为:${hadoop.tmp.dir}/nm-local-dir。
解决方法:通过在磁盘空余的目录建立cache存储路径,然后软链接到/var/hadoop_tmp/nm-local-dir/usercache/user01/filecache目录,在不改动配置或重启hadoop的情况下解决了问题。
根据日志分析发现,异常原因为:could not find any valid local directory for output,猜测应该由于磁盘被占满的原因导致任务无法继续进行。
查看core-site.xml配置,发现hadoop.tmp.dir配置路径为/var/hadoop_tmp,而这个路径的存储空间基本被占满。
进一步分析发现,运行hive任务时,有个目录会存储大量的临时数据:/var/hadoop_tmp/nm-local-dir/usercache/user01/filecache
,该路径是由yarn-site.xml文件的yarn.nodemanager.local-dirs配置的,默认为:${hadoop.tmp.dir}/nm-local-dir。
解决方法:通过在磁盘空余的目录建立cache存储路径,然后软链接到/var/hadoop_tmp/nm-local-dir/usercache/user01/filecache目录,在不改动配置或重启hadoop的情况下解决了问题。
相关文章推荐
- 通过Hive执行任务,异常——Hive:Connection refused;Hadoop:too many open files
- 源码分析 Laravel 重复执行同一个队列任务的原因
- Spring定时任务中@PostConstruct被多次执行异常的分析与解决
- hive 结合执行计划 分析 limit 执行原理
- STL string 析构异常原因分析
- Hadoop MapReduce之ReduceTask任务执行(三):Merger线程分析
- oracle startup 之后 如果执行SQL 那么立马shutdown 原因分析
- C# 外部组件发生异常原因分析 [分析]
- 处理您的请求时发生异常。此外,对第一个异常执行自定义错误页时发生另一异常。已终止请求。
- Hadoop源码流程分析4-Task节点执行任务
- 3.EntityFramework的多种记录日志方式,记录错误并分析执行时间过长原因(系列4)
- 修改List报ConcurrentModificationException异常原因分析
- 弹出系统异常提示框的崩溃原因分析
- linux下使用crontab实现定时PHP计划任务失败的原因分析
- Storm客户端提交任务失败原因分析
- C#动态生成DropDownList执行失败原因分析
- Celery源码分析(二)--------任务执行单元Worker的流程
- spring定时任务执行两次的原因与解决方法
- hive 结合执行计划 分析 limit 执行原理
- 关闭页面时window.location事件未执行的原因分析及解决方案