您的位置:首页 > 运维架构

hbase,hadoop 在ubuntu 上安装及部署配置

2016-09-07 19:37 393 查看
环境:

1.ubuntu 14.04 LTS

2.hbase 1.2.2

3.hadoop 2.7.2 

4.JDK 1.8

hbase,hadoop 的运行都依赖java 运行环境,首先确保机器装有java环境 

sudo add-apt-repository ppa:webupd8team/java
sudo apt-get update
sudo apt-get install oracle-java8-installer

配置环境变量:
sudo vim /etc/profile
文件末尾添加变量:
export JAVA_HOME=/usr/lib/jvm/java-8-oracle
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib

source /etc/profile

hbase,hadoop安装:

 下载hbase:

  http://www.apache.org/dyn/closer.cgi/hbase/
  tar xzvf hbase-1.2.2-bin.tar.gz

  

  下载hadoop:

  hadoop:http://hadoop.apache.org/releases.html

  tar xzvf hadoop-2.7.2.tar.gz

  

  sudo vim /etc/profile

  export HBASE_HOME={yourPath}/hbase-1.2.2

  export HADOOP_HOME={yourPath}/hadoop-2.5.2

  source /etc/profile

1.本地数据库模式启动hbase:

   a. vim conf/hbase-env.sh

  JAVA_HOME解注释并修改路径:

  export JAVA_HOME=/usr/lib/jvm/java-8-oracle

  

   

   b. vim conf/hbase-site.xml

   

  <configuration>

  <property>

    <name>hbase.rootdir</name>

    <value>file:///home/testuser/hbase</value>

  </property>

  <property>

    <name>hbase.zookeeper.property.dataDir</name>

    <value>/home/testuser/zookeeper</value>

  </property>
</configuration>
 
c.执行 start-hbase.sh
d.hbase shell 连接数据库
 

2.Pseudo-Distributed model

a. stop-hbase.sh
b. vim conf/hbase-site.xml
  <property>

  <name>hbase.cluster.distributed</name>

  <value>true</value>export HBASE_HOME=/opt/app/hbase-1.2.2
</property>
 
<property>

  <name>hbase.rootdir</name>

  <value>hdfs://localhost:9000/hbase</value>
</property>
 

3.hadoop配置
cd ${HOME_HADOOP}
vim etc/hadoop/hadoop-env.sh
JAVA_HOME解注释并修改路径:

  export JAVA_HOME=/usr/lib/jvm/java-8-oracle

  

  vim etc/hadoop/core-site.xml

  <configuration>

    <property>

        <name>fs.defaultFS</name>

        <value>hdfs://localhost:9000</value>

    </property>

   </configuration>

   

   vim etc/hadoop/hdfs-site.xml
<configuration>

    <property>

        <name>dfs.replication</name>

        <value>1</value>

    </property>

   </configuration>
   

hadoop 需要无密码登录本机,如果不可以则须执行一下命令

   ssh localhost

   ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

   cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

   chmod 0600 ~/.ssh/authorized_keys
   

格式化数据空间

   bin/hdfs namenode -format
   

启动hadoop dfs 服务

   sbin/start-dfs.sh
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: