重温Hadoop基本知识
2015-12-27 14:07
267 查看
Hadoop是一个由Apache基金会开发的分布式编程框架,允许在集群服务器上使用简单的编程模型(MapReduce)对大数据集进行分布式处理。
Hadoop框架的核心的是HDFS、MapReduce和Yarn。
其中HDFS提供海量数据的存储,
MapReduce提供数据计算,
Yarn是集群资源管理和调度平台。
掌握了这三部分,也就掌握了Hadoop最核心的东西。
Hadoop框架的核心的是HDFS、MapReduce和Yarn。
其中HDFS提供海量数据的存储,
MapReduce提供数据计算,
Yarn是集群资源管理和调度平台。
掌握了这三部分,也就掌握了Hadoop最核心的东西。
相关文章推荐
- ARM-LINUX开发环境的搭建(一)
- linux命令学习(6)
- python使用os.system执行Linux shell命令
- 提升进程权限函数OpenProcessToken 及相关函数详解
- Linux库函数文件编程类整理
- centos7增加win7的登录选项
- VLC架构剖析
- tomcat通过conf-Catalina-localhost目录发布项目详解
- Web性能压力测试工具之ApacheBench(ab)详解
- [笔记]登录式Shell与非登录式Shell
- CDH4安装实践HDFS、HBase、Zookeeper、Hive、Oozie、Sqoop
- linux编译azkaban
- 老男孩教育--梦开始的地方!!
- Linux学习资料
- OpenGL - VS 配置 OpenGL - 一
- 深入理解linux操作系统中的高端内存
- linux red hat 给普通用户开启root权限
- centos6中安装python2.7 与python3.3
- linux中怎样设置DHCP
- PhontoShop CS6 视频