【Spark亚太研究院系列】Spark道路的真正的主人-第一章 构建Spark星团(第五步)(6)
2015-09-01 21:49
281 查看
结束historyserver例如,下面的命令可以看到:
第四步:验证Hadoop分布式集群
首先在hdfs文件系统上创建两个文件夹。创建步骤例如以下所看到的:
Hdfs中的/data/wordcount用来存放Hadoop自带的WordCount样例的数据文件,程序执行的结果输出到/output/wordcount文件夹中。透过Web控制能够发现我们成功创建了两个文件夹:
接下来将本地文件的数据上传到HDFS目录中:
透过Web控制能够发现我们成功上传了文件:
也可通过hadoop的hdfs命令在控制命令终端查看信息:
执行Hadoop自带的WordCount样例。执行例如以下命令:
执行步骤例如以下:
第四步:验证Hadoop分布式集群
首先在hdfs文件系统上创建两个文件夹。创建步骤例如以下所看到的:
Hdfs中的/data/wordcount用来存放Hadoop自带的WordCount样例的数据文件,程序执行的结果输出到/output/wordcount文件夹中。透过Web控制能够发现我们成功创建了两个文件夹:
接下来将本地文件的数据上传到HDFS目录中:
透过Web控制能够发现我们成功上传了文件:
也可通过hadoop的hdfs命令在控制命令终端查看信息:
执行Hadoop自带的WordCount样例。执行例如以下命令:
执行步骤例如以下:
相关文章推荐
- <struct、union、enum>差异
- mysql高效索引之覆盖索引
- 12.责任链模式(设计模式笔记)
- 链表的基本操作
- Android-本地方法C调用Java中的方法/NDK-JNI开发实例(六)
- 软件开发工具 第一二章总结
- Python 读Dict数据的方法,解决key 不在dict的问题,get()函数,setdefault()函数
- html的表单
- Word Search
- visio流程图软件
- 模拟短信发送按钮
- 【自学基础】IDE(Integrated Development Enviroment)
- C++面试基础题错题集 day one
- Leetcode_DP_Word Break
- visio流程图软件
- Leetcode -- Maximum Subarray
- Python正则表达式指南
- LeetCode3.2(Implement strStr())
- LeetCode之Count Primes
- 用二分代码分析递归运行过程