hadoop的一个hdfs测试程序
2010-07-25 09:24
267 查看
#include "../hadoop-0.20.2/src/c++/libhdfs/hdfs.h"
int main(int argc, char ** argv)
{
hdfsFS fs = hdfsConnect("default", 0);
const char* writePath = "/tmp/testfile.txt";
hdfsFile writeFile = hdfsOpenFile(fs, writePath, O_WRONLY | O_CREAT, 0, 0, 0);
if(!writeFile)
{
fprintf(stderr, "Failed to open %s for writing!/n", writePath);
exit(-1);
}
char* buffer = "Hello, World!";
tSize num_written_bytes = hdfsWrite(fs, writeFile, (void*)buffer, strlen(buffer) + 1);
if(hdfsFlush(fs, writeFile))
{
fprintf(stderr, "Failed to 'flush' %s/n", writePath);
exit(-1);
}
hdfsCloseFile(fs, writeFile);
return 0;
}
//这个在0.19.2版本可用(在0.20.2版本不一样):gcc above_sample.c -I${HADOOP_HOME}/src/c++/libhdfs -L${HADOOP_HOME}/libhdfs -lhdfs -o above_sample
/*gcc hadoop_helloworld.c -I /usr/local/share/jdk1.6.0_20/include/ -I /usr/local/share/jdk1.6.0_20/include/linux/ -I /home/stanford/hadoop-0.20.2/src/c++/libhdfs/ -L /home/stanford/hadoop-0.20.2/c++/Linux-i386-32/lib -lhdfs -o hadoop_helloworld -L /usr/local/share/jdk1.6.0_20/jre/lib/i386/client -ljvm*/
/*如缺少哪个共享库,则可应用命令加载:sudo ln ~/hadoop-0.20.2/c++/Linux-i386-32/lib/libhdfs.so.0*/
int main(int argc, char ** argv)
{
hdfsFS fs = hdfsConnect("default", 0);
const char* writePath = "/tmp/testfile.txt";
hdfsFile writeFile = hdfsOpenFile(fs, writePath, O_WRONLY | O_CREAT, 0, 0, 0);
if(!writeFile)
{
fprintf(stderr, "Failed to open %s for writing!/n", writePath);
exit(-1);
}
char* buffer = "Hello, World!";
tSize num_written_bytes = hdfsWrite(fs, writeFile, (void*)buffer, strlen(buffer) + 1);
if(hdfsFlush(fs, writeFile))
{
fprintf(stderr, "Failed to 'flush' %s/n", writePath);
exit(-1);
}
hdfsCloseFile(fs, writeFile);
return 0;
}
//这个在0.19.2版本可用(在0.20.2版本不一样):gcc above_sample.c -I${HADOOP_HOME}/src/c++/libhdfs -L${HADOOP_HOME}/libhdfs -lhdfs -o above_sample
/*gcc hadoop_helloworld.c -I /usr/local/share/jdk1.6.0_20/include/ -I /usr/local/share/jdk1.6.0_20/include/linux/ -I /home/stanford/hadoop-0.20.2/src/c++/libhdfs/ -L /home/stanford/hadoop-0.20.2/c++/Linux-i386-32/lib -lhdfs -o hadoop_helloworld -L /usr/local/share/jdk1.6.0_20/jre/lib/i386/client -ljvm*/
/*如缺少哪个共享库,则可应用命令加载:sudo ln ~/hadoop-0.20.2/c++/Linux-i386-32/lib/libhdfs.so.0*/
相关文章推荐
- hadoop 从客户端的hdfs测试程序连到linux 上的hadoop(hdfs)要调用的方法
- 一个简单的HTTP并发测试程序
- Java实训——创建一个窗体程序,实现简单的数学加、减法测试。
- OpenCV20(flann一个简单的测试程序)
- haoop下运行程序时出现错误:Hadoop HDFS Wrong FS: hdfs:/ expected file:///
- hadoop 测试第一个mapreduce程序
- 题目:编写一个程序,测试运行它的平台是大端字节序还是小端字节序。
- hadoop入门例子(一)-输出hdfs上面的某一个目录下面的文件
- 编写一个程序对Largest函数进行测试,找出一组数据的最大值
- 一个很好的在线测试编辑器(可以在线运行很多程序)
- 将上述三类对象进行测试,即用一个程序执行入口对三类对象进行测试。
- 自己动手写一个可重用的登录测试程序
- 学习实践:使用模式,原则实现一个C++自动化测试程序
- 创建并运行一个基本的Python测试程序(自己的看法修改)
- 第一个hadoop程序(java程序访问hadoop的hdfs文件系统中的文件)
- Asp.Net操作MSSQL数据库的类-从增删改查讲起-附带一个小程序测试
- 基于HDFS的spark分布式Scala wordcount程序测试
- 解数独程序源代码,可检测题目是否合法,可解无解/一个解/多个解的情况。leetcode测试较快,现在分享,望指教!
- 【Hadoop测试程序】编写MapReduce测试Hadoop环境