Hadoop URL数据读取操作
2014-07-14 17:17
585 查看
hadoop可以从命令行上使用hadoop fs [command]来读取文件系统中的文件。同时也可以使用java接口来实现这些功能。
刚写好了一个权威指南上的例子,附上代码:
这个问题后来解决了,是类文件放的是文件夹下面而不是包下面,重新建立一个包,然后将源文件放进去就行,如下
网上也有其他的解决办法,
选择use as source folder就可以了。
现在设置好了以后,右键点击Run as ----> run on hadoop运行之后,出现远程连接错误,应该是eclipse与hadoop的连接问题,初步断定应该是两者的配置问题。
刚写好了一个权威指南上的例子,附上代码:
package baseOperation; import java.io.InputStream; import java.net.URI; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.*; import org.apache.hadoop.io.IOUtils; public class FileSystemCat { public static void main(String[] args) throws Exception{ String uri = "hdfs://localhost/user/root/Esther/pome"; Configuration conf = new Configuration(); FileSystem fs = FileSystem.get(URI.create(uri),conf); InputStream in = null; try{ in = fs.open(new Path(uri)); IOUtils.copyBytes(in,System.out,4096,false); }finally{ IOUtils.closeStream(in); } } }在导入hadoop 的conf文件、一些jar包信息之后,编译出错:
Could not find or load main class baseOperation.FileSystemCat
这个问题后来解决了,是类文件放的是文件夹下面而不是包下面,重新建立一个包,然后将源文件放进去就行,如下
网上也有其他的解决办法,
选择use as source folder就可以了。
现在设置好了以后,右键点击Run as ----> run on hadoop运行之后,出现远程连接错误,应该是eclipse与hadoop的连接问题,初步断定应该是两者的配置问题。
相关文章推荐
- Hadoop URL读取数据
- Hadoop文件系统操作之读取写入数据
- Hadoop学习笔记0003——从Hadoop URL读取数据
- Hadoop权威指南:从Hadoop URL读取数据
- Java接口之从Hadoop URL读取数据。
- hadoop超时解决办法context.progress()的作用 假设在map()方法中,你有一个从数据库读取大量数据的操作,是用一个循环来完成的,并且,在读完全部的数据之前,你不会有任何的数据输出
- 3.5.1 从Hadoop URL读取数据
- Hadoop URL读取数据
- 从Hadoop URL中读取数据
- URL写入操作中存在很大数据量时的读取和写入
- 未完待续 HDFS中使用hadoop url来读取数据
- Hadoop 从URL中读取数据
- 使用Hadoop URL读取数据
- SQL 数据的导入导出,对远程(MSsql,OracleAccess,)数据库的操作以及读取Excel,txt文件中的数据
- Flex与.NET互操作(四):使用HttpService、URLReqeust和URLLoader加载/传输数据
- 简单的SQL Server数据库数据读取与数据操作
- ADO.NET中的多数据表操作浅析之读取
- Flex与.NET互操作(四):使用HttpService、URLReqeust和URLLoader加载/传输数据
- 在Silverlight中读取指定URL图片包数据
- ASP.NET中Gridview读取数据表列表页面常用操作-序号,编辑,删除,删除确认