您的位置:首页 > 运维架构

hadoop yarn:beyond virtual memory limits

2018-03-01 15:01 501 查看
问题描述:
最近使用sqoop导入数据到hdfs上面,出现不成功的情况,错误如下:Container [pid=25705,containerID=container_1519886213201_0001_01_000047] is running beyond virtual memory limits. Current usage: 163.8 MB of 1 GB physical memory used; 2.6 GB of 2.1 GB virtual memory used. Killing container.

Container [pid=24331,containerID=container_1519886213201_0001_01_000046] is running beyond virtual memory limits. Current usage: 207.9 MB of 1 GB physical memory used; 2.6 GB of 2.1 GB virtual memory used. Killing container.问题解决:
上网一查,发现有两种方法能解决这个问题:
1.将yarn.nodemanager.vmem-check-enabled的值改为false,即不检查VM的值;
2.将yarn.scheduler.minimum-allocation-mb的值调高一些,默认是1024mb,或者修改yarn.nodemanager.vmem-pmem-ratio的值,默认为2.1,将该值改得更大。
于是,我采用了第一种方法,重启yarn服务,再次提交,果然好了。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  hadoop yarn