您的位置:首页 > 运维架构

Hadoop入门之WordCount(windows+hadoop2.8.1)

2017-10-19 12:13 423 查看
参考文章:

http://blog.csdn.net/lifeifei2010/article/details/69396332

http://blog.csdn.net/xiaoxiangzi222/article/details/52757168

……

首先开启Hadoop服务(参照上一篇博客)

接下来:

1.进入hadoop的bin目录 在hdfs上创建一个新文件夹

hdfs dfs -mkdir -p /data/input

2.将当前目录中的某个txt文件复制到hdfs中(我复制的LICENSE.txt,     注意要确保当前目录中有该文件)

hdfs dfs -put LICENSE.txt /data/input

3.查看hdfs中是否有我们刚复制进去的文件

hdfs dfs ls /data/input




4.进入share的上层目录,提交单词统计任务

hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.1.jar wordcount /data/input /data/output/result

接着就会进行map和reduce

5.查看结果

hdfs dfs -cat /data/output/result/part-r-00000




OK,成功!
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息