Hadoop Streaming 实战: 输出文件分割
2015-09-16 12:10
330 查看
转自http://blog.csdn.net/yfkiss/article/details/6406432
我们知道,Hadoop streaming框架默认情况下会以'/t’作为分隔符,将每行第一个'/t’之前的部分作为key,其余内容作为value,如果没有'/t’分隔符,则整行作为key;这个key/tvalue对又作为reduce的输入。hadoop 提供配置供用户自主设置分隔符。
-D [b]stream.map.output.field.separator[/b] :设置map输出中key和value的分隔符
-D stream.num.map.output.key.fields : 设置map程序分隔符的位置,该位置之前的部分作为key,之后的部分作为value
-D map.output.key.field.separator : 设置map输出中key内部的分割符,最好不是‘\t’,否则key内部不会按照第二个、第三个字段排序,具体原因暂不知道
-D num.key.fields.for.partition : 指定分桶时,key按照分隔符切割后,其中用于分桶key所占的列数(配合-partitioner org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner 使用)
-D stream.reduce.output.field.separator:设置reduce输出中key和value的分隔符
-D stream.num.reduce.output.key.fields:设置reduce程序分隔符的位置
我们知道,Hadoop streaming框架默认情况下会以'/t’作为分隔符,将每行第一个'/t’之前的部分作为key,其余内容作为value,如果没有'/t’分隔符,则整行作为key;这个key/tvalue对又作为reduce的输入。hadoop 提供配置供用户自主设置分隔符。
-D [b]stream.map.output.field.separator[/b] :设置map输出中key和value的分隔符
-D stream.num.map.output.key.fields : 设置map程序分隔符的位置,该位置之前的部分作为key,之后的部分作为value
-D map.output.key.field.separator : 设置map输出中key内部的分割符,最好不是‘\t’,否则key内部不会按照第二个、第三个字段排序,具体原因暂不知道
-D num.key.fields.for.partition : 指定分桶时,key按照分隔符切割后,其中用于分桶key所占的列数(配合-partitioner org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner 使用)
-D stream.reduce.output.field.separator:设置reduce输出中key和value的分隔符
-D stream.num.reduce.output.key.fields:设置reduce程序分隔符的位置
相关文章推荐
- CentOS,清理缓存(drop_caches)
- 启动时运行 Chkdsk “Cannot Open Volume for Direct Access”错误信息
- shell脚本中的awk脚本语法
- 辨别 ShopEX Ecshop
- Ubuntu安装jdk报错:-bash /usr/.../java:No such file or directroy
- Linux下的进程状态
- Magic of David Copperfield II(奇偶性)
- 用python和shell检测centos版本
- 如何给你的网站接入支付宝?
- hadoop学习过程中一系列问题
- 使用ssh访问防火墙后的Linux服务器的方法
- Hadoop YARN如何调度内存和CPU
- Linux下进程信息/proc/pid/status的深入分析
- openerp编辑与非编辑下隐藏按钮的方法
- 对AP(Affinity Propagation)聚类算法的理解
- CentOS 6.5安全加固及性能优化
- telnet install in centos 6
- linux的任务前后台管理(bg和fg命令)
- java.lang.NoSuchMethodError: org.apache.poi.POIDocument
- Tomcat服务器的安装与配置