您的位置:首页 > 运维架构

Hadoop概念学习系列之谈hadoop/spark里分别是如何实现容错性?(四十二)

2016-12-02 18:09 302 查看
  Hadoop使用数据复制来实现容错性(I/O高)

  Spark使用RDD数据存储模型来实现容错性。

  RDD是只读的、分区记录的集合。[b]如果一个RDD的一个分区丢失,RDD含有如何重建这个分区的相关信息。这就避免了使用数据复制来保证容错性的要求[/b],从而减少了对磁盘的访问。通过RDD,后续步骤如果需要相同数据集时就不必重新计算或从磁盘加载。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: