您的位置:首页 > 运维架构

Hadoop中HDFS的设计目标

2015-09-17 18:46 295 查看
1.检测和快速恢复硬件故障:硬件故障是计算机常见的问题。整个HDFS系统由数百甚至数千个存储着数据文件的服务器组成。而如此多的服务器则意味着高故障率,因此故障的检测和快速自动恢复是HDFS的一个核心目标。

2.流式的数据访问:HDFS使应用程序流式地访问它们的数据集。HDFS被设计成适合进行批量处理,而不是用户交互式处理。所以它重视数据吞吐量,而不是数据访问的反应速度。

3.简化一致模型:大部分的HDFS程序对文件的操作需要一次写入,多次读取。一个文件一旦经过创建、写入、关闭就不需要修改了。这个假设简化了数据一致性问题和高吞吐量的数据访问问题。

4.通信协议:所有的通信协议都是在TCP/IP协议之上的。一个客户端和明确配置了端口的名字节点建立连接之后,它和名字节点的协议便是客户端协议。数据节点和名字节点之间则用数据节点协议
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: