您的位置:首页 > 大数据

大数据入门笔记(三)

2016-05-09 00:00 120 查看
摘要: 这是我之前学习大数据hadoop的一些笔记,今天偶尔拿出来看看,顺便上传到博客中 这篇主要是hdfs --hadoop 分布式文件系统

HDFS( Hadoop Distributed File System) hadoop分布式文件系统

总的设计思想:

分而治之 ---- 将大文件、大批量文件,分布式存放在大量独立的服务器上,以便于采取分而治之的方式对海量数据进行运算分析;
重点概念:文件切块,副本存放,元数据

HDFS的一些concept(概念)和特性

首先,它是一个文件系统,有一个统一的命名空间——目录树

其次,它是分布式,由很多服务器联合起来实现功能;

(1)hdfs文件系统会给客户端提供一个统一的抽象目录树,客户端访问hdfs文件时就是通过指定这个抽象目录中的路径来访问

(2)Hdfs中的文件都是分块(block)存储的,块的大小可以通过配置参数(dfs.blocksize)来规定,默认大小在hadoop2.x版本中是128M,老版本中是64M

(3)文件的各个block由谁来进行真实的存储呢?----分布在各个datanode服务节点上,而且每一个block都可以存储多个副本(副本数量也可以通过参数设置dfs.replication

(4)Hdfs中有一个重要的角色:namenode,负责维护整个hdfs文件系统的目录树,以及每一个路径(文件)所对应的block块信息(block的id,及所在的datanode服务器)

(5)hdfs是设计成适应一次写入,多次读出的场景,并不支持文件的修改

(适合用来做数据分析)

(hdfs并不适合用来做网盘应用,因为,不便修改,延迟大,网络开销大,成本太高)

hdfs的shell(命令行客户端)操作

-ls #显示目录信息

-->hadoop fs -ls hdfs://hadoop-server01:9000/

这些参数中,所有的hdfs路径都可以简写

-->hadoop fs -ls / 等同于上一条命令的效果

-mkdir #在hdfs上创建目录

-->hadoop fs -mkdir -p /aaa/bbb/cc/dd

-moveFromLocal #从本地剪切粘贴到hdfs

-moveToLocal #从hdfs剪切粘贴到本地

--appendToFile ----追加一个文件到已经存在的文件末尾

-->hadoop fs -appendToFile ./hello.txt hdfs://hadoop-server01:9000/hello.txt

可以简写为: Hadoop fs -appendToFile ./hello.txt /hello.txt

-cat ---显示文件内容

-->hadoop fs -cat /hello.txt

-chgrp / -chmod / -chown将指定文件的拥有者改为指定的用户或组

上面三个跟linux中的用法一样 chown [选项]... [所有者][:[组]] 文件...

-->hadoop fs -chmod 666 /hello.txt

-copyFromLocal #从本地文件系统中拷贝文件到hdfs路径去

-->hadoop fs -copyFromLocal ./jdk.tar.gz /aaa/

-copyToLocal #从hdfs拷贝到本地

Eg: hadoop fs -copyToLocal /aaa/jdk.tar.gz

-count #统计一个指定目录下的文件节点数量

-->hadoop fs -count /aaa/

-cp #从hdfs的一个路径拷贝hdfs的另一个路径

hadoop fs -cp /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2

-createSnapshot / -deleteSnapshot / -renameSnapshot

以上三个用来操作hdfs文件系统目录信息快照

-->hadoop fs -createSnapshot /

-df #统计文件系统的可用空间信息

-du

-->hadoop fs -df -h /

-->hadoop fs -du -s -h /aaa/*

-get #等同于copyToLocal,就是从hdfs下载文件到本地

-getmerge #合并下载多个文件

--> 比如hdfs的目录 /aaa/下有多个文件:log.1, log.2,log.3,...

hadoop fs -getmerge /aaa/log.* ./log.sum

-help #输出这个命令参数手册

-mv #在hdfs目录中移动文件

-put #等同于copyFromLocal

-rm #删除文件或文件夹

--> hadoop fs -rm -r /aaa/bbb/

-rmdir #删除空目录

-setrep #设置hdfs中文件的副本数量

-->hadoop fs -setrep 3 /aaa/jdk.tar.gz

-stat #显示一个文件或文件夹的元信息

-tail #显示一个文件的末尾

-text #以字符形式打印一个文件的内容
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: