您的位置:首页 > 大数据 > Hadoop

hdfs 如何列出目录下的所有文件

2015-05-22 17:45 645 查看
import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileUtil;
public class  FilesList
{
public static void main(String[] args) throws Exception
{
if(args.length != 1){
System.out.println("Usage : FilesList <target>");
System.exit(1);
}
Configuration conf = new Configuration();
FileSystem hdfs = FileSystem.get(URI.create(args[0]),conf);
FileStatus[] fs = hdfs.listStatus(new Path(args[0]));
Path[] listPath = FileUtil.stat2Paths(fs);
for(Path p : listPath)
System.out.println(p);
}
}
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: