您的位置:首页 > 其它

YARN内存使用优化配置

2015-09-22 15:11 330 查看

YARN内存使用优化配置

hadoopyarnyarn
内存分配

配置文件 配置项名称 配置项值

yarn-site.xml yarn.nodemanager.resource.memory-mb = Containers个数* 每个Container内存

yarn-site.xml yarn.scheduler.minimum-allocation-mb = 每个Container内存

yarn-site.xml yarn.scheduler.maximum-allocation-mb = Containers个数* 每个Container内存

mapred-site.xml mapreduce.map.memory.mb = 每个Container内存

mapred-site.xml mapreduce.reduce.memory.mb = 2 * 每个Container内存

mapred-site.xml mapreduce.map.java.opts = 0.8 * 每个Container内存

mapred-site.xml mapreduce.reduce.java.opts = 0.8 * 2 * 每个Container内存

yarn-site.xml (check) yarn.app.mapreduce.am.resource.mb = 2 * 每个Container内存

yarn-site.xml (check) yarn.app.mapreduce.am.command-opts = 0.8 * 2 * 每个Container内存



在Hadoop2.0中, YARN负责管理MapReduce中的资源(内存, CPU等)并且将其打包成Container. 这样可以精简MapReduce, 使之专注于其擅长的数据处理任务, 将无需考虑资源调度. 如下图所示

YARN会管理集群中所有机器的可用计算资源. 基于这些资源YARN会调度应用(比如MapReduce)发来的资源请求, 然后YARN会通过分配Container来给每个应用提供处理能力, Container是YARN中处理能力的基本单元, 是对内存, CPU等的封装.



目前我这里的服务器情况:6台slave,每台:32G内存,2*6核CPU。



由于hadoop 1.x存在JobTracker和TaskTracker,资源管理有它们实现,在执行mapreduce作业时,资源分为map task和reduce task。所有存在下面两个参数分别设置每个TaskTracker可以运行的任务数:

Xml代码







<property>
<name>mapred.tasktracker.map.tasks.maximum</name>
<value>6</value>
<description><![CDATA[CPU数量=服务器CPU总核数 / 每个CPU的核数;服务器CPU总核数 = more /proc/cpuinfo | grep 'processor' | wc -l;每个CPU的核数 = more /proc/cpui nfo | grep 'cpu cores']]></description>
</property>
<property>
<name>mapred.tasktracker.reduce.tasks.maximum</name>
<value>4</value>
<description>一个task tracker最多可以同时运行的reduce任务数量</description>
</property>

<property>
        <name>mapred.tasktracker.map.tasks.maximum</name>
        <value>6</value>
        <description><![CDATA[CPU数量=服务器CPU总核数 / 每个CPU的核数;服务器CPU总核数 = more /proc/cpuinfo | grep 'processor' | wc -l;每个CPU的核数 = more /proc/cpui nfo | grep 'cpu cores']]></description>
</property>
<property>
		<name>mapred.tasktracker.reduce.tasks.maximum</name>
		<value>4</value>
		<description>一个task tracker最多可以同时运行的reduce任务数量</description>
</property>



但是在hadoop 2.x中,引入了Yarn架构做资源管理,在每个节点上面运行NodeManager负责节点资源的分配,而slot也不再像1.x那样区分Map slot和Reduce slot。在Yarn上面Container是资源的分配的最小单元。



Yarn集群的内存分配配置在yarn-site.xml文件中配置:

Java代码







<property>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>22528</value>
<discription>每个节点可用内存,单位MB</discription>
</property>

<property>
<name>yarn.scheduler.minimum-allocation-mb</name>
<value>1500</value>
<discription>单个任务可申请最少内存,默认1024MB</discription>
</property>

<property>
<name>yarn.scheduler.maximum-allocation-mb</name>
<value>16384</value>
<discription>单个任务可申请最大内存,默认8192MB</discription>
</property>

<property>
		<name>yarn.nodemanager.resource.memory-mb</name>
		<value>22528</value>
		<discription>每个节点可用内存,单位MB</discription>
	</property>
	
	<property>
		<name>yarn.scheduler.minimum-allocation-mb</name>
		<value>1500</value>
		<discription>单个任务可申请最少内存,默认1024MB</discription>
	</property>
	
	<property>
		<name>yarn.scheduler.maximum-allocation-mb</name>
		<value>16384</value>
		<discription>单个任务可申请最大内存,默认8192MB</discription>
	</property>

由于我Yarn集群还需要跑Spark的任务,而Spark的Worker内存相对需要大些,所以需要调大单个任务的最大内存(默认为8G)。



而Mapreduce的任务的内存配置:

Xml代码







<property>
<name>mapreduce.map.memory.mb</name>
<value>1500</value>
<description>每个Map任务的物理内存限制</description>
</property>

<property>
<name>mapreduce.reduce.memory.mb</name>
<value>3000</value>
<description>每个Reduce任务的物理内存限制</description>
</property>

<property>
<name>mapreduce.map.java.opts</name>
<value>-Xmx1200m</value>
</property>

<property>
<name>mapreduce.reduce.java.opts</name>
<value>-Xmx2600m</value>
</property>

<property>
		<name>mapreduce.map.memory.mb</name>
		<value>1500</value>
		<description>每个Map任务的物理内存限制</description>
	</property>
	
	<property>
		<name>mapreduce.reduce.memory.mb</name>
		<value>3000</value>
		<description>每个Reduce任务的物理内存限制</description>
	</property>
	
	<property>
		<name>mapreduce.map.java.opts</name>
		<value>-Xmx1200m</value>
	</property>
	
	<property>
		<name>mapreduce.reduce.java.opts</name>
		<value>-Xmx2600m</value>
	</property>



Xml代码







mapreduce.map.memory.mb:每个map任务的内存,应该是大于或者等于Container的最小内存。

按照上面的配置:每个slave可以运行map的数据<= 22528/1500,reduce任务的数量<=<SPAN style="LINE-HEIGHT: 1.5; FONT-SIZE: 1em">22528/3000</SPAN>
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: