大数据入门笔记(三)
2016-05-09 00:00
120 查看
摘要: 这是我之前学习大数据hadoop的一些笔记,今天偶尔拿出来看看,顺便上传到博客中 这篇主要是hdfs --hadoop 分布式文件系统
分而治之 ---- 将大文件、大批量文件,分布式存放在大量独立的服务器上,以便于采取分而治之的方式对海量数据进行运算分析;
重点概念:文件切块,副本存放,元数据
其次,它是分布式的,由很多服务器联合起来实现功能;
(1)hdfs文件系统会给客户端提供一个统一的抽象目录树,客户端访问hdfs文件时就是通过指定这个抽象目录中的路径来访问
(2)Hdfs中的文件都是分块(block)存储的,块的大小可以通过配置参数(dfs.blocksize)来规定,默认大小在hadoop2.x版本中是128M,老版本中是64M
(3)文件的各个block由谁来进行真实的存储呢?----分布在各个datanode服务节点上,而且每一个block都可以存储多个副本(副本数量也可以通过参数设置dfs.replication)
(4)Hdfs中有一个重要的角色:namenode,负责维护整个hdfs文件系统的目录树,以及每一个路径(文件)所对应的block块信息(block的id,及所在的datanode服务器)
(5)hdfs是设计成适应一次写入,多次读出的场景,并不支持文件的修改
(适合用来做数据分析)
(hdfs并不适合用来做网盘应用,因为,不便修改,延迟大,网络开销大,成本太高)
-->hadoop fs -ls hdfs://hadoop-server01:9000/
这些参数中,所有的hdfs路径都可以简写
-->hadoop fs -ls / 等同于上一条命令的效果
-mkdir #在hdfs上创建目录
-->hadoop fs -mkdir -p /aaa/bbb/cc/dd
-moveFromLocal #从本地剪切粘贴到hdfs
-moveToLocal #从hdfs剪切粘贴到本地
--appendToFile ----追加一个文件到已经存在的文件末尾
-->hadoop fs -appendToFile ./hello.txt hdfs://hadoop-server01:9000/hello.txt
可以简写为: Hadoop fs -appendToFile ./hello.txt /hello.txt
-cat ---显示文件内容
-->hadoop fs -cat /hello.txt
-chgrp / -chmod / -chown将指定文件的拥有者改为指定的用户或组
上面三个跟linux中的用法一样 chown [选项]... [所有者][:[组]] 文件...
-->hadoop fs -chmod 666 /hello.txt
-copyFromLocal #从本地文件系统中拷贝文件到hdfs路径去
-->hadoop fs -copyFromLocal ./jdk.tar.gz /aaa/
-copyToLocal #从hdfs拷贝到本地
Eg: hadoop fs -copyToLocal /aaa/jdk.tar.gz
-count #统计一个指定目录下的文件节点数量
-->hadoop fs -count /aaa/
-cp #从hdfs的一个路径拷贝hdfs的另一个路径
hadoop fs -cp /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2
-createSnapshot / -deleteSnapshot / -renameSnapshot
以上三个用来操作hdfs文件系统目录信息快照
-->hadoop fs -createSnapshot /
-df #统计文件系统的可用空间信息
-du
-->hadoop fs -df -h /
-->hadoop fs -du -s -h /aaa/*
-get #等同于copyToLocal,就是从hdfs下载文件到本地
-getmerge #合并下载多个文件
--> 比如hdfs的目录 /aaa/下有多个文件:log.1, log.2,log.3,...
hadoop fs -getmerge /aaa/log.* ./log.sum
-help #输出这个命令参数手册
-mv #在hdfs目录中移动文件
-put #等同于copyFromLocal
-rm #删除文件或文件夹
--> hadoop fs -rm -r /aaa/bbb/
-rmdir #删除空目录
-setrep #设置hdfs中文件的副本数量
-->hadoop fs -setrep 3 /aaa/jdk.tar.gz
-stat #显示一个文件或文件夹的元信息
-tail #显示一个文件的末尾
-text #以字符形式打印一个文件的内容
HDFS( Hadoop Distributed File System) hadoop分布式文件系统
总的设计思想:分而治之 ---- 将大文件、大批量文件,分布式存放在大量独立的服务器上,以便于采取分而治之的方式对海量数据进行运算分析;
重点概念:文件切块,副本存放,元数据
HDFS的一些concept(概念)和特性
首先,它是一个文件系统,有一个统一的命名空间——目录树其次,它是分布式的,由很多服务器联合起来实现功能;
(1)hdfs文件系统会给客户端提供一个统一的抽象目录树,客户端访问hdfs文件时就是通过指定这个抽象目录中的路径来访问
(2)Hdfs中的文件都是分块(block)存储的,块的大小可以通过配置参数(dfs.blocksize)来规定,默认大小在hadoop2.x版本中是128M,老版本中是64M
(3)文件的各个block由谁来进行真实的存储呢?----分布在各个datanode服务节点上,而且每一个block都可以存储多个副本(副本数量也可以通过参数设置dfs.replication)
(4)Hdfs中有一个重要的角色:namenode,负责维护整个hdfs文件系统的目录树,以及每一个路径(文件)所对应的block块信息(block的id,及所在的datanode服务器)
(5)hdfs是设计成适应一次写入,多次读出的场景,并不支持文件的修改
(适合用来做数据分析)
(hdfs并不适合用来做网盘应用,因为,不便修改,延迟大,网络开销大,成本太高)
hdfs的shell(命令行客户端)操作
-ls #显示目录信息-->hadoop fs -ls hdfs://hadoop-server01:9000/
这些参数中,所有的hdfs路径都可以简写
-->hadoop fs -ls / 等同于上一条命令的效果
-mkdir #在hdfs上创建目录
-->hadoop fs -mkdir -p /aaa/bbb/cc/dd
-moveFromLocal #从本地剪切粘贴到hdfs
-moveToLocal #从hdfs剪切粘贴到本地
--appendToFile ----追加一个文件到已经存在的文件末尾
-->hadoop fs -appendToFile ./hello.txt hdfs://hadoop-server01:9000/hello.txt
可以简写为: Hadoop fs -appendToFile ./hello.txt /hello.txt
-cat ---显示文件内容
-->hadoop fs -cat /hello.txt
-chgrp / -chmod / -chown将指定文件的拥有者改为指定的用户或组
上面三个跟linux中的用法一样 chown [选项]... [所有者][:[组]] 文件...
-->hadoop fs -chmod 666 /hello.txt
-copyFromLocal #从本地文件系统中拷贝文件到hdfs路径去
-->hadoop fs -copyFromLocal ./jdk.tar.gz /aaa/
-copyToLocal #从hdfs拷贝到本地
Eg: hadoop fs -copyToLocal /aaa/jdk.tar.gz
-count #统计一个指定目录下的文件节点数量
-->hadoop fs -count /aaa/
-cp #从hdfs的一个路径拷贝hdfs的另一个路径
hadoop fs -cp /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2
-createSnapshot / -deleteSnapshot / -renameSnapshot
以上三个用来操作hdfs文件系统目录信息快照
-->hadoop fs -createSnapshot /
-df #统计文件系统的可用空间信息
-du
-->hadoop fs -df -h /
-->hadoop fs -du -s -h /aaa/*
-get #等同于copyToLocal,就是从hdfs下载文件到本地
-getmerge #合并下载多个文件
--> 比如hdfs的目录 /aaa/下有多个文件:log.1, log.2,log.3,...
hadoop fs -getmerge /aaa/log.* ./log.sum
-help #输出这个命令参数手册
-mv #在hdfs目录中移动文件
-put #等同于copyFromLocal
-rm #删除文件或文件夹
--> hadoop fs -rm -r /aaa/bbb/
-rmdir #删除空目录
-setrep #设置hdfs中文件的副本数量
-->hadoop fs -setrep 3 /aaa/jdk.tar.gz
-stat #显示一个文件或文件夹的元信息
-tail #显示一个文件的末尾
-text #以字符形式打印一个文件的内容
相关文章推荐
- 大数据入门笔记(四)
- Hadoop 2.x伪分布式环境搭建详细步骤
- hdu3446 daizhenyang's chess 【一般图匹配】
- 利用Gensim训练关于英文维基百科的Word2Vec模型(Training Word2Vec Model on English Wikipedia by Gensim)
- IBM Watson物联网平台的两个MQTT工具
- Andorid总结 - AIDL
- shiro中的filterChainDefinitions
- 442 - Matrix Chain Multiplication
- HDU 3420 Bus Fair(贪心)
- 下一代大数据系统和4S标准
- 大数据流式处理的利与弊
- Laxcus大数据管理系统2.0(14)- 后记
- 浅谈开源大数据平台的演变
- 【LeetCode】Factorial Trailing Zeroes 解题报告
- haartraining生成.xml文件过程
- haartraining前将统一图片尺寸方法
- 514 - Rails
- 一文读懂机器学习,大数据/自然语言处理/算法全有了
- Failed to push selection: Invalid argument
- ceph和hdfs