hadoop命令 - 查看文件的block size
2014-04-24 09:54
197 查看
当向HDFS上写文件时,可以通过设置dfs.block.size配置项来设置文件的block size,这导致HDFS上不同文件的block size是不同的。有时候我们需要知道HDFS上某个文件的block size,比如想知道该该文件作为job的输入会创建几个map等。Hadoop FS Shell提供了一个-stat选项可以达到目的。官方文档描述这个选项时遗漏了可选参数。-stat选项的使用格式是:
{HADOOP_HOME}/bin/hadoop fs –stat [format]
其中可选的format被官方文档遗漏了。下面列出了format的形式:
%b:打印文件大小(目录为0)
%n:打印文件名
%o:打印block size (我们要的值)
%r:打印备份数
%y:打印UTC日期 yyyy-MM-dd HH:mm:ss
%Y:打印自1970年1月1日以来的UTC微秒数
%F:目录打印directory, 文件打印regular file
当使用-stat选项但不指定format时候,只打印文件创建日期,相当于%y:
bin/hadoop fs -stat /liangly/teradata/part-00099
2010-11-02 08:03:49
下面的例子打印文件的block size和备份个数:
bin/hadoop fs -stat "%o %r" /liangly/teradata/part-00099
67108864 3
从打印结果可以看到文件/liangly/teradata/part-00099的block size是64m,有3个备份。
{HADOOP_HOME}/bin/hadoop fs –stat [format]
其中可选的format被官方文档遗漏了。下面列出了format的形式:
%b:打印文件大小(目录为0)
%n:打印文件名
%o:打印block size (我们要的值)
%r:打印备份数
%y:打印UTC日期 yyyy-MM-dd HH:mm:ss
%Y:打印自1970年1月1日以来的UTC微秒数
%F:目录打印directory, 文件打印regular file
当使用-stat选项但不指定format时候,只打印文件创建日期,相当于%y:
bin/hadoop fs -stat /liangly/teradata/part-00099
2010-11-02 08:03:49
下面的例子打印文件的block size和备份个数:
bin/hadoop fs -stat "%o %r" /liangly/teradata/part-00099
67108864 3
从打印结果可以看到文件/liangly/teradata/part-00099的block size是64m,有3个备份。
相关文章推荐
- hadoop查看文件命令
- hadoop 查看文件的常用命令
- hadoop 查看文件大小命令
- Hadoop中如何查看文件的block size
- 常用查看文件命令
- Linux/shell命令的实际应用——ldd查看可执行程序依赖的库文件
- android,adb命令,查看,修改,文件权限
- linux 查看压缩包里文件用什么命令
- Linux中用stat命令查看文件时3个时间点解析
- Hadoop 文件操作常用的命令
- 一天一个linux基础命令之查看文件开头结尾部分内容tail
- Hadoop 文件操作常用的命令
- hadoop常用文件命令
- 六、查看文件内容命令
- Linux下查看二进制文件命令
- Linux 查看文件内容的命令
- grep命令:查看配置文件未注释行(转)
- Linux下查看文件和文件夹大小的df和du命令
- Linux查看磁盘属性、文件夹/文件大小的命令 --- df和du
- 【识记】linux查看打开文件的命令–lsof