本地多级文件 合并上传到hdfs(递归上传)
2016-09-13 13:26
896 查看
package com.hdfs;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.LocalFileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import com.beicai.utils.MyUtils;
/**
*
* @described 本地多级文件 合并上传到hdfs(递归上传)
*/
public class HdfsWork1 {
public static void main(String[] args) throws Exception {
myMerge();
}
public static void myWrite(Path path,LocalFileSystem lfs,FSDataOutputStream fsdos) throws Exception{
FileStatus[] fst = lfs.listStatus(path);//获得本地文件的数组
FSDataInputStream fsdis = null;
for(int i=0;i<fst.length;i++){
if(fst[i].isDirectory()){//是文件夹继续调用本方法
myWrite(fst[i].getPath(),lfs,fsdos);
} else {
fsdis = lfs.open(fst[i].getPath());//打开文件输入流
int read = 0;
byte[] buffer = new byte[255];
while((read=fsdis.read(buffer))>0){//读取文件并输出到hdfs上
fsdos.write(buffer, 0, read);
}
IOUtils.closeStream(fsdis);//关闭文件输入流
}
}
}
public static void myMerge() throws Exception{
FileSystem fs = MyUtils.getFileSystem();//获取hdfs文件系统
LocalFileSystem lfs = MyUtils.getLocalFileSystem();//获得本地文件系统
Path localPath = new Path("D:/data");//本地路径
Path hdfsPath = new Path("/data/file1.txt");//hdfs路径
FSDataOutputStream fsdos = fs.create(hdfsPath);//dfs文件输出流
myWrite(localPath,lfs,fsdos);//调用递归方法
IOUtils.closeStream(fsdos);//关闭输出流
}
}
下面是工具类
package com.utils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.LocalFileSystem;
/**
*
* @described 获取文件系统
* @author
* @date
* @see
*/
public class MyUtils {
public static FileSystem getFileSystem() throws Exception{
Configuration conf =new Configuration();
FileSystem fs = FileSystem.newInstance(conf);
return fs;
}
public static LocalFileSystem getLocalFileSystem() throws Exception{
return FileSystem.newInstanceLocal(new Configuration());
}
}
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.LocalFileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import com.beicai.utils.MyUtils;
/**
*
* @described 本地多级文件 合并上传到hdfs(递归上传)
*/
public class HdfsWork1 {
public static void main(String[] args) throws Exception {
myMerge();
}
public static void myWrite(Path path,LocalFileSystem lfs,FSDataOutputStream fsdos) throws Exception{
FileStatus[] fst = lfs.listStatus(path);//获得本地文件的数组
FSDataInputStream fsdis = null;
for(int i=0;i<fst.length;i++){
if(fst[i].isDirectory()){//是文件夹继续调用本方法
myWrite(fst[i].getPath(),lfs,fsdos);
} else {
fsdis = lfs.open(fst[i].getPath());//打开文件输入流
int read = 0;
byte[] buffer = new byte[255];
while((read=fsdis.read(buffer))>0){//读取文件并输出到hdfs上
fsdos.write(buffer, 0, read);
}
IOUtils.closeStream(fsdis);//关闭文件输入流
}
}
}
public static void myMerge() throws Exception{
FileSystem fs = MyUtils.getFileSystem();//获取hdfs文件系统
LocalFileSystem lfs = MyUtils.getLocalFileSystem();//获得本地文件系统
Path localPath = new Path("D:/data");//本地路径
Path hdfsPath = new Path("/data/file1.txt");//hdfs路径
FSDataOutputStream fsdos = fs.create(hdfsPath);//dfs文件输出流
myWrite(localPath,lfs,fsdos);//调用递归方法
IOUtils.closeStream(fsdos);//关闭输出流
}
}
下面是工具类
package com.utils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.LocalFileSystem;
/**
*
* @described 获取文件系统
* @author
* @date
* @see
*/
public class MyUtils {
public static FileSystem getFileSystem() throws Exception{
Configuration conf =new Configuration();
FileSystem fs = FileSystem.newInstance(conf);
return fs;
}
public static LocalFileSystem getLocalFileSystem() throws Exception{
return FileSystem.newInstanceLocal(new Configuration());
}
}
相关文章推荐
- hdfs有多级目录 合并文件下载到本地(递归下载)
- 本地多级文件 原样上传到hdfs
- 把本地文件夹下的所有文件上传到hdfs上并合并成一个文件
- 合并本地文件并上传到hdfs
- 解决从linux本地文件系统上传文件到HDFS时的权限问题
- HDFS的小文件合并上传
- 利用java API实现本地文件上传至hdfs
- 上传本地文件到hdfs
- hadoop生态系统学习之路(三)java实现上传文件(本地或ftp)至hdfs
- 上传本地文件到HDFS
- 上传本地文件到HDFS
- 将存储在本地的大量分散的小文件,合并并保存在hdfs文件系统中
- HDFS过滤合并并上传文件demo
- 将存储在本地的大量分散的小文件,合并并保存在hdfs文件系统中
- [Hadoop]Hadoop上传本地文件到HDFS
- spark 本地文件上传hdfs
- JAVA实现:将文件从本地上传到HDFS上、从HDFS上读取等操作
- hdfs中将文件夹下所有.bz2文件进行解压并且合并,然后传到本地
- 向hdfs上传本地文件-Hello World
- 解决从本地文件系统上传到HDFS时的权限问题