hadoop:基于Java API实现的编译
2016-07-26 10:23
399 查看
Hadoop入门教程:基于Java API实现的编译,如果用户使用Eclipse开发,则需要导入hadoop-core-x.y.x.jar核心包,由于Eclipse会自动编译,则直接使用export功能导出词频统计的jar包即可;如果使用Linux中的vim开发,则应使用下面的方法进行编译并打包。
在上节Java实现中有三个类:WordcountMapper.java、WordcountReducer.java、MyWordCount.java,用户的当前工作目录只有这三个Java文件,则编译脚本如下:
#!/bin/bash
#编译并打包单词统计MapReduce程序
HADOOP_VERSION=1.0.4
HADOOP_HOME=/home/nuoline/Hadoop-$HADOOP_VERSION
LIB=${HADOOP_HOME}/Hadoop-core-${HADOOP_VERSION}.jar
mkdir wordcount
javac –cp $LIB –d wordcount *.java
jar -cvf /usr/nuoline/wordcount.jar -C wordcount/
在该脚本中的HADOOP_HOME是Hadoop的安装目录,LIB是词频统计的依赖库,只需要Hadoop-core-${HADOOP_VERSION}.jar核心包就可以。执行上述脚本就可以编译并打包词频统计程序。
在上节Java实现中有三个类:WordcountMapper.java、WordcountReducer.java、MyWordCount.java,用户的当前工作目录只有这三个Java文件,则编译脚本如下:
#!/bin/bash
#编译并打包单词统计MapReduce程序
HADOOP_VERSION=1.0.4
HADOOP_HOME=/home/nuoline/Hadoop-$HADOOP_VERSION
LIB=${HADOOP_HOME}/Hadoop-core-${HADOOP_VERSION}.jar
mkdir wordcount
javac –cp $LIB –d wordcount *.java
jar -cvf /usr/nuoline/wordcount.jar -C wordcount/
在该脚本中的HADOOP_HOME是Hadoop的安装目录,LIB是词频统计的依赖库,只需要Hadoop-core-${HADOOP_VERSION}.jar核心包就可以。执行上述脚本就可以编译并打包词频统计程序。
相关文章推荐
- RSA密钥——JAVA与C#的区别和联系
- Eclipse中常用的快捷键
- Spring学习篇:AOP知识整理
- java 数据类型
- Java提高篇—— 简单介绍Java 的内存泄漏
- File对象功能-文件列表
- SpringMVC 使用JSR-303进行校验 @Valid
- java实例化对象的方式
- java环境搭建和写出一个Helloworld
- 3.【字符串】Atoi--Accepted Java code
- 谈谈对spring的理解
- Java语言的IO库
- 从头开始基于Maven搭建SpringMVC+Mybatis项目(3)
- Spring Web MVC处理请求的流程
- Hadoop4Win+Eclipse
- Spring初识
- JAVA中传递参数乱码问题
- 【转-整理】Spring的aop原理
- java 读取properties文件
- java的代理模式实例