MapReduce编程实战1——WorldCout程序编写
2015-05-14 13:58
351 查看
//mapreduce程序 import java.io.IOException; import java.util.StringTokenizer; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; public class WordCount { /** * TokenizerMapper 继续自 Mapper<LongWritable, Text, Text, IntWritable> * * [一个文件就一个map,两个文件就会有两个map] * map[这里读入输入文件内容 以" \t\n\r\f" 进行分割,然后设置 word ==> one 的key/value对] * * @param Object Input key Type: * @param Text Input value Type: * @param Text Output key Type: * @param IntWritable Output value Type: * * Writable的主要特点是它使得Hadoop框架知道对一个Writable类型的对象怎样进行serialize以及deserialize. * WritableComparable在Writable的基础上增加了compareT接口,使得Hadoop框架知道怎样对WritableComparable类型的对象进行排序。 * * @ author liuqingjie * */ public static class TokenizerMapper extends Mapper<LongWritable, Text, Text, IntWritable>{ private final static IntWritable one = new IntWritable(1); private Text word = new Text(); public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { StringTokenizer itr = new StringTokenizer(value.toString()); while (itr.hasMoreTokens()) { word.set(itr.nextToken()); context.write(word, one); } } } /** * IntSumReducer 继承自 Reducer<Text,IntWritable,Text,IntWritable> * * [不管几个Map,都只有一个Reduce,这是一个汇总] * reduce[循环所有的map值,把word ==> one 的key/value对进行汇总] * * 这里的key为Mapper设置的word[每一个key/value都会有一次reduce] * * 当循环结束后,最后的确context就是最后的结果. * * @author liuqingjie * */ public static class IntSumReducer extends Reducer<Text,IntWritable,Text,IntWritable> { private IntWritable result = new IntWritable(); public void reduce(Text key, Iterable<IntWritable> values, Context context ) throws IOException, InterruptedException { int sum = 0; for (IntWritable val : values) { sum += val.get(); } result.set(sum); context.write(key, result); } } public static void main(String[] args) throws Exception { Configuration conf = new Configuration(); if (args.length != 2) { System.err.println("请配置路径 "); System.exit(2); } Job job = new Job(conf, "wordcount"); job.setJarByClass(WordCount.class);//主类 job.setMapperClass(TokenizerMapper.class);//mapper job.setReducerClass(IntSumReducer.class);//reducer job.setMapOutputKeyClass(Text.class);//设置map输出数据的关键类 job.setMapOutputValueClass(IntWritable.class);//设置map输出值类 job.setOutputKeyClass(Text.class);//设置作业输出数据的关键类 job.setOutputValueClass(IntWritable.class);//设置作业输出值类 FileInputFormat.addInputPath(job, new Path(otherArgs[0]));//文件输入 FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));//文件输出 System.exit(job.waitForCompletion(true) ? 0 : 1);//等待完成退出. } }
编写过程分析:(1)数据类型 整型:IntWritable, 这是Hadoop对int的封装 字符串型:Text,这是Hadoop对String的封装 上下文对象:Context,它用来与MapReduce系统进行通信,如把map的结果传给
reduce处理 (2)执行过程 分为两个阶段:map阶段和reduce阶段, 以key/value为输入输出,其中key、value的类型可以由程序员自定义。
map编写: 自定义一个类,继承于基类Mapper,该基类是一个泛型,有4个形参类型:用来指定map函数的输入键、输入值,输出键、输 出值,格式如下:public class Mapper<KEYIN,VALUEIN,KEYOUT,VALUEOU>。 根据实际需要,重写map函数,函数类型由Mapper指定。每一对<key,value>调用一次map函数。
wordcount程序中,map方法中的value值存储的是文本文件中的一行,key值为该行的首字符相对于文本文件首字符的偏移量,在本程序中,key值未使用。StringTokenizer类是将每一行拆分为一个个的单词。 reduce编写:
自定义一个类,继承于基类Reducer,该基类是一个泛型,有4个形参类型:用来指定reduce函数的输入键、输入值,输出键、输出值,格式public class Reducer<KEYIN,VALUEIN,KEYOUT,VALUEOUT>,其中reduce的输入类型必须与map的输出类型一致。
根据实际需要,重写reduce方法,方法的类型由Reducer指定。每一个key调用一次reduce方法。 主函数编写: 在主函数中进行作业的配置,主要配置有:
Job job = new Job(conf, "word count"); job.setJarByClass(WordCount.class);//主类 job.setMapperClass(TokenizerMapper.class);//mapper job.setReducerClass(IntSumReducer.class);//reducer job.setMapOutputKeyClass(Text.class);//设置map输出数据的关键类 job.setMapOutputValueClass(IntWritable.class);//设置map输出值类 job.setOutputKeyClass(Text.class);//设置作业输出数据的关键类 job.setOutputValueClass(IntWritable.class);//设置作业输出值类 FileInputFormat.addInputPath(job, new Path(otherArgs[0]));//文件输入 FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));//文件输出 System.exit(job.waitForCompletion(true) ? 0 : 1);//等待完成退出.(3)数据处理过程 1)将文件拆分为splits,并由MapReduce框架自动完成分割,将每一个split分割为<key,value>对
2)每一对<key,value>调用一次map函数,处理后生产新的<key,value>对,由Context传递给reduce处理
3)Mapper对<key,value>对进行按key值进行排序,将key值相同的value进行合并。最后得到Mapper的最终输出结果 4)reduce处理,处理后将新的<key,value>对输出。
相关文章推荐
- 【实战编程】编写0号中断处理程序
- C语言编程实战——编写简单贪吃蛇程序
- Chapter04 编写基本的MapReduce程序(一) 专利数据集实战一
- 实战案例-- 用Java编写基础小程序
- 编写简单的Mapreduce程序并部署在Hadoop2.2.0上运行
- 用eclipse编写mapreduce程序
- 世界编程大赛第一名编写的程序-3D世界
- 如何在Hadoop上编写MapReduce程序
- 用C语言编写 Windows 服务程序的五个步骤以及服务编程常见问题处理
- MapReduce 编程 系列七 MapReduce程序日志查看
- 艾伟_转载:基于.NET平台的Windows编程实战(四)—— 数据库操作类的编写
- 编写运行hadoop mapreduce程序
- 如何快速地编写和运行一个属于自己的 MapReduce 例子程序
- 在hadoop上进行编写mapreduce程序,统计关键词在text出现次数
- Hadoop实战-中高级部分 之 Hadoop MapReduce高级编程
- hadoop 0.23 YARN分布式程序的编写 (Hadoop MapReduce Next Generation - Writing YARN Applications)
- Hadoop实战(四) 编写MR程序
- 搞定linux上MySQL编程(六):C语言编写MySQL程序(结)
- Linux多任务编程(六)---编写多进程程序及其代码
- 作业二:个人编程项目——编写一个能自动生成小学四则运算题目的程序