Hadoop HDFS 学习(2)理论
2016-06-11 11:20
357 查看
HDFS读流程
客户端调用API的open方法请求NameNode 获得block的位置信息,文件内容存储的不同的block上,然后返回客户端。客户端并发的读不同的block,然后合并成一个文件。(不能超大型文件,磁盘存储可能不够)
HDFS写流程
客户端调用API的create方法请求NameNode 并创建一个文件,然后将文件的名字,拥有者,大小返回客户端。计算该文件分成多少个block,将block写在dataNode 上,客户端只写一次,剩下的副本由第一个dataNode产生线程,根据副本创建规则复制到其他的dataName上,不由客户端创建(优点:速度快)。复制完后返回客户端一个回馈信息,同时汇报给nameNode。上传成功。
HDFS文件权限
上传文件,谁上传的文件,那么这个文件的拥有者就是谁。HDFS不做密码认证。
客户端调用API的open方法请求NameNode 获得block的位置信息,文件内容存储的不同的block上,然后返回客户端。客户端并发的读不同的block,然后合并成一个文件。(不能超大型文件,磁盘存储可能不够)
HDFS写流程
客户端调用API的create方法请求NameNode 并创建一个文件,然后将文件的名字,拥有者,大小返回客户端。计算该文件分成多少个block,将block写在dataNode 上,客户端只写一次,剩下的副本由第一个dataNode产生线程,根据副本创建规则复制到其他的dataName上,不由客户端创建(优点:速度快)。复制完后返回客户端一个回馈信息,同时汇报给nameNode。上传成功。
HDFS文件权限
上传文件,谁上传的文件,那么这个文件的拥有者就是谁。HDFS不做密码认证。
相关文章推荐
- 详解HDFS Short Circuit Local Reads
- Hadoop_2.1.0 MapReduce序列图
- 使用Hadoop搭建现代电信企业架构
- 单机版搭建Hadoop环境图文教程详解
- hadoop常见错误以及处理方法详解
- hadoop 单机安装配置教程
- hadoop的hdfs文件操作实现上传文件到hdfs
- hadoop实现grep示例分享
- Apache Hadoop版本详解
- linux下搭建hadoop环境步骤分享
- hadoop client与datanode的通信协议分析
- hadoop中一些常用的命令介绍
- Hadoop单机版和全分布式(集群)安装
- 用PHP和Shell写Hadoop的MapReduce程序
- hadoop map-reduce中的文件并发操作
- Hadoop1.2中配置伪分布式的实例
- hadoop上传文件功能实例代码
- java结合HADOOP集群文件上传下载
- Hadoop 2.x伪分布式环境搭建详细步骤
- Java访问Hadoop分布式文件系统HDFS的配置说明