Hadoop学习--通过API得到文件系统状态--day04
2017-01-03 15:03
513 查看
import java.io.ByteArrayOutputStream;
import java.io.InputStream;
import java.net.URL;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.BlockLocation;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import org.junit.Test;
/**
* 测试hadoop文件系统的API
* @author Administrator
*
*/
public class readfilestatus {
/**
* 通过filesystem对象API读取HDFS文件数据
*
* @author Administrator
*
* 1.创建configuration对象,注意这里如果涉及到某些参数,需要自己书写指定在src目录下
* 2.利用filesystem的get方法来获取filesystem对象,get方法一共有三种(关键)
* 3.利用filesystem的open方法打开一个数据输入流,方法过程中需要一个path对象的参数传递(关键)
* 4.利用ioutils工具类实现文件的输出
*
*
*
*/
@Test
public void read() throws Exception {
//创建configuration对象,有个默认的加载顺序,先从core-default.xml,再到src目录中的文件,这里
//我们给定了
Configuration conf = new Configuration();
//可以手动添加指定的配置文件
// conf.addResource("my-core-site.xml");
//通过conf的configuration对象创建了该分布式文件系统fs,默认如果不指定文件的话为本地文件系统
FileSystem fs = FileSystem.get(conf);
//定义一个URL的字符串
String file = "hdfs://hadoop01/user/hadoop/data2/demo.txt";
//通过一个URL的字符串构建一个path对象,其实就是文件的地址
Path path = new Path(file);
//得到制定路径下面的文件的状态
FileStatus st = fs.getFileStatus(path);
System.out.println("st.getBlockSize() = " + st.getBlockSize());
System.out.println("st.getAccessTime() = " + st.getAccessTime());
System.out.println("st.getGroup() = " + st.getGroup());
System.out.println("st.getLen() = " + st.getLen());
System.out.println("st.getModificationTime() = " + st.getModificationTime());
System.out.println("st.getOwner() = " + st.getOwner());
System.out.println("st.getReplication() = " + st.getReplication());
System.out.println("st.getClass() = " + st.getClass());
System.out.println("st.getPath() = " + st.getPath());
System.out.println("st.getPermission() = " + st.getPermission());
System.out.println("-----------------------------------");
// System.out.println("st.getSymlink() = " + st.getSymlink());
//得到指定文件状态的块位置信息集合
//把整个文件从0字节开始到整个文件的全长的字节
BlockLocation[] locations = fs.getFileBlockLocations(st, 0, st.getLen());
for(BlockLocation block : locations){
System.out.println(block.getLength());
System.out.println(block.getOffset());
System.out.println(block.getCachedHosts());
System.out.println(block.getHosts());
System.out.println(block.getNames());
System.out.println(block.getTopologyPaths());
}
}
}
import java.io.InputStream;
import java.net.URL;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.BlockLocation;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import org.junit.Test;
/**
* 测试hadoop文件系统的API
* @author Administrator
*
*/
public class readfilestatus {
/**
* 通过filesystem对象API读取HDFS文件数据
*
* @author Administrator
*
* 1.创建configuration对象,注意这里如果涉及到某些参数,需要自己书写指定在src目录下
* 2.利用filesystem的get方法来获取filesystem对象,get方法一共有三种(关键)
* 3.利用filesystem的open方法打开一个数据输入流,方法过程中需要一个path对象的参数传递(关键)
* 4.利用ioutils工具类实现文件的输出
*
*
*
*/
@Test
public void read() throws Exception {
//创建configuration对象,有个默认的加载顺序,先从core-default.xml,再到src目录中的文件,这里
//我们给定了
Configuration conf = new Configuration();
//可以手动添加指定的配置文件
// conf.addResource("my-core-site.xml");
//通过conf的configuration对象创建了该分布式文件系统fs,默认如果不指定文件的话为本地文件系统
FileSystem fs = FileSystem.get(conf);
//定义一个URL的字符串
String file = "hdfs://hadoop01/user/hadoop/data2/demo.txt";
//通过一个URL的字符串构建一个path对象,其实就是文件的地址
Path path = new Path(file);
//得到制定路径下面的文件的状态
FileStatus st = fs.getFileStatus(path);
System.out.println("st.getBlockSize() = " + st.getBlockSize());
System.out.println("st.getAccessTime() = " + st.getAccessTime());
System.out.println("st.getGroup() = " + st.getGroup());
System.out.println("st.getLen() = " + st.getLen());
System.out.println("st.getModificationTime() = " + st.getModificationTime());
System.out.println("st.getOwner() = " + st.getOwner());
System.out.println("st.getReplication() = " + st.getReplication());
System.out.println("st.getClass() = " + st.getClass());
System.out.println("st.getPath() = " + st.getPath());
System.out.println("st.getPermission() = " + st.getPermission());
System.out.println("-----------------------------------");
// System.out.println("st.getSymlink() = " + st.getSymlink());
//得到指定文件状态的块位置信息集合
//把整个文件从0字节开始到整个文件的全长的字节
BlockLocation[] locations = fs.getFileBlockLocations(st, 0, st.getLen());
for(BlockLocation block : locations){
System.out.println(block.getLength());
System.out.println(block.getOffset());
System.out.println(block.getCachedHosts());
System.out.println(block.getHosts());
System.out.println(block.getNames());
System.out.println(block.getTopologyPaths());
}
}
}
相关文章推荐
- Hadoop学习--通过API访问本地文件系统--day04
- Hadoop学习--通过API上传文件--day04
- (4)通过调用hadoop的java api实现本地文件上传到hadoop文件系统上
- hadoop2.7.2学习笔记05-hadoop文件系统API定义-本文档使用到的专用符号
- hadoop2.7.2学习笔记05-hadoop文件系统API定义-简介
- (4)通过调用hadoop的java api实现本地文件上传到hadoop文件系统上
- Hadoop学习--通过配置文件修改文件副本数块大小--day04
- hadoop2.7.2学习笔记05-hadoop文件系统API定义-hadoop文件系统模型
- hadoop2.7.2学习笔记05-hadoop文件系统API定义-hadoop数据输入流类FSDataInputStream
- hadoop2.7.2学习笔记05-hadoop文件系统API定义-hadoop文件系统类org.apache.hadoop.fs.FileSystem
- Linux下通过系统调用(API)和C语言库函数对文件进行访问
- Hadoop 文件系统API开发编译
- Hadoop入门(10)_通过java代码实现从本地的文件上传到Hadoop的文件系统
- hadoop学习;hdfs操作;运行抛出权限异常: Permission denied;api查看源码方法;源码不停的向里循环;抽象类通过debug查找源码
- Linux下通过系统调用(API)和C语言库函数对文件进行访问
- 开发者可以通过Data Protection API 来设定文件系统中的文件、keychain中的项应该何时被解密
- Hadoop学习<二>--HDFS文件系统操作方式
- Hadoop学习全程记录——hadoop读取hdfs文件系统里的内容
- 云计算学习笔记004---hadoop的简介,以及安装,用命令实现对hdfs系统进行文件的上传下载
- 通过HDFS的API访问文件系统的例子