Hadoop 使用FileSystem API 读取数据
2016-06-15 16:33
393 查看
代码:
hadoop中执行:
package com.hadoop; import java.io.IOException; import java.io.InputStream; import java.net.URI; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IOUtils; public class FileSystemCat { public static void main(String[] args) throws IOException { String uri = args[0]; Configuration config = new Configuration(); FileSystem fs = FileSystem.get(URI.create(uri), config); InputStream in = null; try { in = fs.open(new Path(uri)); IOUtils.copyBytes(in, System.out, 4096,false); } finally { IOUtils.closeStream(in); } } }
hadoop中执行:
相关文章推荐
- CentOS6.5安装vncserver实现图形化访问
- HDFS基本Shell命令
- 除了默认的docker0网桥,启动Docker服务怎么指定使用的网桥
- [置顶] Hadoop伪分布安装详解+MapReduce运行原理+基于MapReduce的KNN算法实现
- 连接池配置c3p0、dbcp、tomcat jdbc pool 及常用数据库的driverClass和驱动包
- 服务器监控相关
- Linux下压缩解压命令总结
- Hadoop 从URL中读取数据
- 进程线程调度
- 伪分布式安装hadoop
- Linux设备驱动开发学习(1):前言
- Red Hat Enterprise Linux7防火墙配置详细说明
- Java日志组件2---Log4j(org.apache.log4j.Logger)
- [转]centos 下 autoconf版本升级
- OpenCV中的RANSAC详解
- Linux服务器安装JDK、Tomcat配置web网站
- tomcat不识别maven web项目问题解决
- Opencv 在ubuntu安装过程
- linux 常用命令
- Linux查看端口占用