Hadoop URL读取数据
2015-02-02 14:18
471 查看
声明:代码来自《Hadoop应用技术开发详解》4.7.1,版权归作者所有。
1. 原理
通过URL的setURLStreamHandlerFactory方法设置Hadoop文件系统的URLStreamHandlerFactory的实现类FsUrlStreamHandlerFactory,这个方法在一个java虚拟机中只能被调用一次,因此一般都是放在一个static块中执行。
2. 代码
file: hdfs\HDFSURLReader.javaimport org.apache.hadoop.fs.FsUrlStreamHandlerFactory; import org.apache.hadoop.io.IOUtils; import java.io.InputStream; import java.net.URL; public class HDFSURLReader { static { URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory()); } public static void main(String[] args) { InputStream inputStream = null; try { inputStream = new URL(args[0]).openStream(); IOUtils.copyBytes(inputStream, System.out, 1024, false); } catch (Exception e) { IOUtils.closeStream(inputStream); } } }
3. 运行结果
[hadoop@master hdfs]$ hdfs dfs -cat hdfs://master:9000/user/hadoop/study/mr/WordCount/input/file1.txt Hello, i love coding are you ok? Hello, i love hadoop areyou ok? [hadoop@master hdfs]$ hadoop jar HDFSURLReader.jar hdfs://master:9000/user/hadoop/study/mr/WordCount/input/file1.txt Hello, i love coding are you ok? Hello, i love hadoop areyou ok?
相关文章推荐
- Hadoop 从URL中读取数据
- 使用Hadoop URL读取数据
- 3.5.1 从Hadoop URL读取数据
- 未完待续 HDFS中使用hadoop url来读取数据
- 从Hadoop URL中读取数据
- Hadoop URL数据读取操作
- Java接口之从Hadoop URL读取数据。
- Hadoop URL读取数据
- Hadoop权威指南:从Hadoop URL读取数据
- Hadoop学习笔记0003——从Hadoop URL读取数据
- URL写入操作中存在很大数据量时的读取和写入
- python读取文本文件URL列表遇到的问题和加载中数据获取问题
- Hadoop源码分析之客户端读取HDFS数据
- java通过URL读取json数据
- 用session打开url读取简单的数据
- 【转】根据URL来读取网页输出的数据
- 在Silverlight中读取指定URL图片包数据
- Hadoop Core 学习笔记(一) SequenceFile文件写入和读取Writable数据
- Hadoop FileSystem API读取数据实例简单注释
- 在Silverlight中读取指定URL图片包数据