hadoop 2.7.1 64位库编译
2015-09-19 20:22
393 查看
原因:
Apache提供的hadoop本地库是32位的,而在64位的服务器上就会有问题,因此需要自己编译64位的版本。
解决:
一、需要准备的软件:
1.JDK和GCC
不再详述
2.安装maven
下载:点击打开链接
解压 tar -zxvf apache-maven-3.2.1-bin.tar.gz
配置环境变量,编辑/etc/profile或者~/.bashrc文件
export M***EN_HOME=/home/username/apache-maven-3.2.1
export PATH=$PATH:$M***EN_HOME/bin
最后要source /etc/profile
通过mvn --version来检查是否安装正常
3.安装protobuf
下载:protobuf下载
解压 tar -zxvf protobuf-2.5.0.tar.gz
进入protobuf-2.5.0目录,执行下面的命令
./configure
make
make check
make install
可以通过protoc --version来查看是否安装正常
如果失败,则:
1. 将所有的用户需要用到的库放到/usr/loca/lib;
2. 通过vi在/etc/ld.so.conf.d/目录下新建文件usr-libs.conf,内容是:/usr/local/lib
3. #sudo ldconfig
4.安装cmake
下载:下载cmake
解压 tar -zxvf cmake-2.8.12.2.tar.gz
进入cmake-2.8.12.2目录,执行下面的命令
./bootstrap
make
make install
可以通过cmake --version来查看是否安装正常
5.安装autotool
sudo apt-get install autoconf automake libtool
二、编译haodoop:
1.下载源码包hadoop-2.7.1-src.tar.gz并解压
tar -zxvf hadoop-2.7.1-src.tar.gz
2.进入hadoop-2.7.1-src目录,执行
mvn clean package -Pdist,native -DskipTests -Dtar
接下来就是漫长的等待,当你看到一系列的SUCCESS之后,你就成功了。
3.编译好的hadoop-2.7.1.tar.gz在hadoop-2.7.1-src木目录下的hadoop-dist/target/的目录中,接下来就可以安装了。
4.如果在编译过程中报错,缺少的包或者软件可以自己去网上找。
Apache提供的hadoop本地库是32位的,而在64位的服务器上就会有问题,因此需要自己编译64位的版本。
解决:
一、需要准备的软件:
1.JDK和GCC
不再详述
2.安装maven
下载:点击打开链接
解压 tar -zxvf apache-maven-3.2.1-bin.tar.gz
配置环境变量,编辑/etc/profile或者~/.bashrc文件
export M***EN_HOME=/home/username/apache-maven-3.2.1
export PATH=$PATH:$M***EN_HOME/bin
最后要source /etc/profile
通过mvn --version来检查是否安装正常
3.安装protobuf
下载:protobuf下载
解压 tar -zxvf protobuf-2.5.0.tar.gz
进入protobuf-2.5.0目录,执行下面的命令
./configure
make
make check
make install
可以通过protoc --version来查看是否安装正常
如果失败,则:
1. 将所有的用户需要用到的库放到/usr/loca/lib;
2. 通过vi在/etc/ld.so.conf.d/目录下新建文件usr-libs.conf,内容是:/usr/local/lib
3. #sudo ldconfig
4.安装cmake
下载:下载cmake
解压 tar -zxvf cmake-2.8.12.2.tar.gz
进入cmake-2.8.12.2目录,执行下面的命令
./bootstrap
make
make install
可以通过cmake --version来查看是否安装正常
5.安装autotool
sudo apt-get install autoconf automake libtool
二、编译haodoop:
1.下载源码包hadoop-2.7.1-src.tar.gz并解压
tar -zxvf hadoop-2.7.1-src.tar.gz
2.进入hadoop-2.7.1-src目录,执行
mvn clean package -Pdist,native -DskipTests -Dtar
接下来就是漫长的等待,当你看到一系列的SUCCESS之后,你就成功了。
3.编译好的hadoop-2.7.1.tar.gz在hadoop-2.7.1-src木目录下的hadoop-dist/target/的目录中,接下来就可以安装了。
4.如果在编译过程中报错,缺少的包或者软件可以自己去网上找。
相关文章推荐
- SharpDevelop安装与配置
- Apache 服务器安装与配置要点
- Linux下mysql的安装
- Linux下mysql的基本操作
- LINUX 下 tomcat的安装和配置
- 如何加强企业Linux系统安全
- shell的详细介绍和编程(上)
- tomcat虚拟主机配置
- Linux常用命令
- tomcat配置虚拟目录
- 自定义控件>带下拉框的文本框 (DropEditView)
- Linux-MSYQL篇之二:MYSQL日常操作命令
- 关于Linux/kernel.h中的offsetof和container_of宏
- Hadoop问题,求解
- opencv视频跟踪2
- OpenCV 使用FaceRecognizer类来进行人脸识别
- 我的架构经验
- Linux内核笔记——内存管理之slab分配器
- nginx笔记, 安装,配置,集群
- Spark修炼之道(进阶篇)——Spark入门到精通:第二节 Hadoop、Spark生成圈简介