hadoop学习之数据完整性
2012-04-14 19:20
218 查看
当客户端从某个Datanode获取的数据可能是损坏的,损坏可能是由于Datanode的存蓄设备错误、网络错误或者软件bug造成的。HDFS客户端软件实现了对HDFS文件内容的校验和检查。当客户端创建一个新的HDFS文件,会计算这个文件的每个数据块的校验和,并将校验和作为一个单独的隐藏文件保存在HDFS名字空间下,当客户端获取文件 内容后,他会校验从datanode获取的数据的跟响应的教校验和文件中的校验和是否匹配,如果不匹配,客户端可以从其他的Datanode获取该数据的的副本。
相关文章推荐
- 从零开始最短路径学习Hadoop之02----处理气象数据的第一个MapReduce程序
- 大数据学习(二):Hadoop源码分析
- hadoop实战学习之用MapReduce简单对整形数据进行全局排序
- 大数据开发是先学习Hadoop还是spark,看10万程序猿所留下的结论
- 大数据学习-hadoop -第三课
- 0基础到大数据架构师(Hadoop+Spark)学习路线图
- 大数据学习笔记——hadoop1.2.1 MapReduce简介
- Hadoop学习日志二之数据仓库
- 阿里封神谈hadoop学习之路 封神 2016-04-14 16:03:51 浏览3283 评论3 发表于: 阿里云E-MapReduce >> 开源大数据周刊 hadoop 学生 spark
- 大数据学习笔记之二十八 Hadoop的第一代MapReduce MRV1
- 基于Hadoop的数据仓库Hive 学习指南
- 大数据Hadoop学习之了解Hadoop(1)
- 6- hadoop 数据完整性与校验
- 小白学习大数据测试之hadoop初探
- 大数据与Hadoop简单入门[学习笔记]
- 大数据,分布式,hadoop,java,高并发系统设计,高端培训视频,各种大神学习路线
- 大数据学习笔记1--hadoop简介和入门
- hadoop生态系统学习之路(八)hbase与hive的数据同步以及hive与impala的数据同步
- 【hadoop】Hadoop学习笔记(七):使用distcp并行拷贝大数据文件
- 大数据Hadoop学习之搭建hadoop平台(2.2)