在VMware Workstation的Ubuntu下安装和配置Hadoop与Ganglia
2014-03-27 10:28
537 查看
在VMware Workstation的Ubuntu下安装和配置Hadoop与Ganglia 相信大部分朋友对Hadoop肯定不陌生,它是一个开源的分布式计算框架,主要由MapReduce、HDFS、Hbase这几个核心部分组成。Hadoop作为云计算的基础平台,使用它的人越来越多,对于一般人而言,要想搭建真实的集群环境是比较难的,因此想要体验Hadoop,只有在虚拟机中搭建环境了。Hadoop集群环境运行起来之后,实时的获取集群的运行情况是比较重要的,因此需要一款监控工具来进行监控。Ganglia是一个开源的监控平台,可以用它来对Hadoop进行监控,今天就来讲一下如何在Ubuntu下搭建Hadoop环境以及如何利用Ganglia来监视集群运行情况。一.安装VMWare Workstation和Ubuntu 从网上下载VMWare Workstation和Ubuntu,在这里我用的是VMWare Workstation 8.0.4和Ubuntu 12.04.2(Ubuntu 10貌似很多更新源都停止服务了,所以这里采用Ubuntu 12,注意Ubuntu 12要求vmware版本在8.0以上),相关安装教程可以参考这篇博文: 《手把手教你用VMWare安装Ubuntu》(注意他这篇文章在分配磁盘空间时是立即分配的,我建议最好 把那个选项取消掉,否则在创建虚拟机的时候要等很长时间)
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/99447cf05308471d88f69bf3eb4d41b1.jpg)
(立即分配所有磁盘空间取消掉) VMWare下载地址:http://www.itopdog.cn/utilities-operating-systems/virtual-machine/vmware-workstation.html ubuntu 下载:http://mirrors.163.com/ubuntu-releases/或者http://mirrors.sohu.com/ubuntu-releases/ 安装好Ubuntu后,由于ubuntu 12采用的是gnome 3的界面,反映比较慢,建议用回以前的经典界面gnome 2.方法: 需要安装gnome-session-fallback软件: 在命令行下输入 sudo apt-get intall gnome-session-fallback,安装完之后,点击右上角的“设置”图标,选择“Log out”,然后就出现登录初始界面了,点击 小扳手 图标,选择 gnome classic之后重新输入密码登录,以后默认就采用经典界面了。
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/11de1a98daf8184ee4da16ad5a9dc8bc.jpg)
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/cbe80804ea65f1f5821c65df7789a8d4.jpg)
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/c6209786624a355a90bde9d3c90c0f6e.jpg)
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/7f198a1ef0ce4bd04b6775232a2f8b39.jpg)
重新进入系统之后,发现界面就发生了变化:
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/704be72ce605adfd955b4d4ffd1f44de.jpg)
注意在使用的时候最好先shutdown(关闭)系统,再关闭虚拟机的电源,以免造成系统文件意外丢失。二.安装配置Hadoop 1.安装VMWare Tools 安装了VMWare Tools后,可以在宿主机和虚拟机之间直接拷贝文件。安装方法如下: 先运行命令:
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/d2bbab6dc1ccb43ba82cae12abd40322.jpg)
就会弹出VMWare Tools所在的文件夹,然后右键VMWare Tools.tar.gz,copy到Home目录下。 再打开Terminal,输入解压命令:
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/2d280ed3c8a834f081183208d8cb425c.jpg)
解压完成之后,进入解压目录,进行安装:
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/f7336fdf99b4fd9b3073014b33c7924d.jpg)
安装过程中根据提示不断回车或者输入“yes”或者“no”即可。 当出现如下界面时,表示安装成功:
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/173cb92eb41148f43d3b5340dd601ee1.jpg)
之后重启系统就可以直接在宿主机和VM之间互相复制粘贴文件了。 2.安装JDK 由于Hadoop是用Java语言编写的,运行时必须要有java环境,因此需要安装JDK。 首先去官网下载JDK安装包,下面是下载地址:http://www.oracle.com/technetwork/java/javase/downloads/jdk6downloads-1902814.html 下载下来之后,先进入到/usr/lib目录下,建立文件夹java,然后拷贝jdk到java目录下,先赋予可执行权限,再直接解压进行安装:
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/a527d7ec4392f6236a016dd07b3031bf.jpg)
等待片刻安装完之后,输入命令
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/8afddf02cafc804cd4e6763a719d5b74.jpg)
3.安装和配置Hadoop 先从Hadoop官网或者镜像网站上下载Hadoop的相应版本,下面是下载地址:http://archive.apache.org/dist/hadoop/core/ 我下载的是hadoop-0.20.203.0rc1.tar.gz,然后直接复制粘贴到ubuntu的Desktop上,再在/usr目录下建立hadoop文件夹, 将hadoop-0.20.203.0rc1.tar.gz文件直接解压到到/usr/hadoop目录下。
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/7a47c0c51c92ca3bcc396d035e92b21d.jpg)
解压之后,需要配置系统环境变量: 运行命令 sudo gedit /etc/profile 添加如下内容(注意HADOOPHOME是自己的hadoop-0.20.203.0rc1.tar.gz文件解压所在路径):
![](https://oscdn.geek-share.com/Uploads/Images/Content/201603/69c5a8ac3fa60e0848d784a6dd461da6.gif)
![](https://oscdn.geek-share.com/Uploads/Images/Content/201603/69c5a8ac3fa60e0848d784a6dd461da6.gif)
hdfs-site.xml
![](https://oscdn.geek-share.com/Uploads/Images/Content/201603/69c5a8ac3fa60e0848d784a6dd461da6.gif)
![](https://oscdn.geek-share.com/Uploads/Images/Content/201603/69c5a8ac3fa60e0848d784a6dd461da6.gif)
mapred-site.xml
![](https://oscdn.geek-share.com/Uploads/Images/Content/201603/69c5a8ac3fa60e0848d784a6dd461da6.gif)
![](https://oscdn.geek-share.com/Uploads/Images/Content/201603/69c5a8ac3fa60e0848d784a6dd461da6.gif)
在进行这些配置之后需要安装ssh,依次输入命令 sudo apt-get install ssh sudo apt-get install rsync 完成之后输入命令 ssh localhost 如果没有提示错误则安装成功(默认的.ssh文件夹在 /home/用户名/ 这个路径下,它是隐藏文件,快捷键Ctrl+H可以显示隐藏文件),然后需要为ssh设置免密码登录和设置权限,依次输入下面几条命令:
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/f438b85ee3d2807b3cc66468cdbc8900.jpg)
关闭集群可以通过命令bin/stop-all.sh来关闭。 hadoop集群启动之后就可以向它提交作业了,一般提交作业先需要将输入文件上传到HDFS,再将整个作业进行提交: 以自带的wordcount程序为例: 先进入到hadoop目录下面,输入命令:
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/dec5c3316ce85249c17dea71ad4e8e8b.jpg)
完了之后会提示配置ganglia-webfrontend,选择“Yes“:
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/5fa107d75dff4cd221fcc38ef938c85c.jpg)
在这个过程会自动安装rrdtool,php这些东西,安装完成之后,需要进行一些配置: 先需要配置gmetad.conf,输入命令 sudo gedit /etc/ganglia/gmetad.conf 如果里面存在 datasource "my cluster" localhost
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/6562c746d59d116debb2540bfb17be7d.jpg)
则不用更改,否则添加进去 接着配置gmond.conf,输入命令 sudo gedit /etc/ganglia/gmond.conf 找到cluster块,将name设置成 "my cluster"。
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/87337b9d2133c9eaa4db79067b337f4f.jpg)
然后分别重启gmetad和gmond: sudo /etc/init.d/gmetad restart
sudo /etc/init.d/ganglia-monitor restart 接下来需要配置apche2下的httpd.conf文件,输入命令: sudo gedit /etc/apache2/httpd.conf 将 ServerName localhost:80 添加进去保存(若有则不用添加)。 再将默认的ganglia-webfrontend文件夹复制到apache的www目录下,输入命令: sudo cp -r /usr/share/ganglia-webfrontend /var/www/ganglia 然后重启apache,输入命令: sudo /etc/init.d/apache2 restart 现在打开浏览器,在地址栏输入http://localhost/ganglia就可以看到ganglia的首页了。
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/4fec3ea598e37b360f44f66e8f41272f.jpg)
ganglia安装成功之后,就需要进行一些配置让它来监控hadoop,这里主要修改/usr/hadoop/hadoop-0.20.203.0/conf/目录下的 hadoop-metrics2.properties文件,将这个文件的最下面六行注释去掉,改成:
![](https://oscdn.geek-share.com/Uploads/Images/Content/201603/69c5a8ac3fa60e0848d784a6dd461da6.gif)
![](https://oscdn.geek-share.com/Uploads/Images/Content/201603/69c5a8ac3fa60e0848d784a6dd461da6.gif)
保存关闭之后就可以对hadoop集群进行监控了。
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/4ba6e4ad1dcaa734bd40460c98252dd4.jpg)
注意我这里所有的配置都是针对hadoop的伪分布式模式的,伪分布式模式就是Namenode和datanode都在一台机器上,模拟成分布式。 关于hadoop和Ganglia的配置就讲到这里了,若有地方有问题,最好查阅官方文档。作者:海子出处:http://www.cnblogs.com/dolphin0520/本博客中未标明转载的文章归作者海子和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。
原文链接:/article/4719014.html
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/99447cf05308471d88f69bf3eb4d41b1.jpg)
(立即分配所有磁盘空间取消掉) VMWare下载地址:http://www.itopdog.cn/utilities-operating-systems/virtual-machine/vmware-workstation.html ubuntu 下载:http://mirrors.163.com/ubuntu-releases/或者http://mirrors.sohu.com/ubuntu-releases/ 安装好Ubuntu后,由于ubuntu 12采用的是gnome 3的界面,反映比较慢,建议用回以前的经典界面gnome 2.方法: 需要安装gnome-session-fallback软件: 在命令行下输入 sudo apt-get intall gnome-session-fallback,安装完之后,点击右上角的“设置”图标,选择“Log out”,然后就出现登录初始界面了,点击 小扳手 图标,选择 gnome classic之后重新输入密码登录,以后默认就采用经典界面了。
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/11de1a98daf8184ee4da16ad5a9dc8bc.jpg)
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/cbe80804ea65f1f5821c65df7789a8d4.jpg)
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/c6209786624a355a90bde9d3c90c0f6e.jpg)
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/7f198a1ef0ce4bd04b6775232a2f8b39.jpg)
重新进入系统之后,发现界面就发生了变化:
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/704be72ce605adfd955b4d4ffd1f44de.jpg)
注意在使用的时候最好先shutdown(关闭)系统,再关闭虚拟机的电源,以免造成系统文件意外丢失。二.安装配置Hadoop 1.安装VMWare Tools 安装了VMWare Tools后,可以在宿主机和虚拟机之间直接拷贝文件。安装方法如下: 先运行命令:
sudo apt-get install build-essential然后选择:
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/d2bbab6dc1ccb43ba82cae12abd40322.jpg)
就会弹出VMWare Tools所在的文件夹,然后右键VMWare Tools.tar.gz,copy到Home目录下。 再打开Terminal,输入解压命令:
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/2d280ed3c8a834f081183208d8cb425c.jpg)
解压完成之后,进入解压目录,进行安装:
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/f7336fdf99b4fd9b3073014b33c7924d.jpg)
安装过程中根据提示不断回车或者输入“yes”或者“no”即可。 当出现如下界面时,表示安装成功:
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/173cb92eb41148f43d3b5340dd601ee1.jpg)
之后重启系统就可以直接在宿主机和VM之间互相复制粘贴文件了。 2.安装JDK 由于Hadoop是用Java语言编写的,运行时必须要有java环境,因此需要安装JDK。 首先去官网下载JDK安装包,下面是下载地址:http://www.oracle.com/technetwork/java/javase/downloads/jdk6downloads-1902814.html 下载下来之后,先进入到/usr/lib目录下,建立文件夹java,然后拷贝jdk到java目录下,先赋予可执行权限,再直接解压进行安装:
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/a527d7ec4392f6236a016dd07b3031bf.jpg)
等待片刻安装完之后,输入命令
sudo gedit /etc/profile来配置环境变量,把下面代码加入到文件末尾(注意路径里面的JAVA_HOME根据个人安装路径而定):
export JAVA_HOME=/usr/lib/java/jdk1.6.0_45export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH export CLASSPATH=$CLASSPATH:.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib保存退出之后输入source /etc/profile使更改生效,再将安装的jdk设置为系统默认的jdk,依次输入以下命令:
sudo update-alternatives --install"/usr/bin/java""java""/usr/lib/java/jdk1.6.0_45/bin/java"300sudo update-alternatives --install"/usr/bin/javac""javac""/usr/lib/java/jdk1.6.0_45/bin//javac"300sudo update-alternatives --config javasudo update-alternatives --config javac注意前2条命令的数字300前面的那个路径根据个人jdk安装路径而定。 最后输入java -version,若出现版本信息则安装成功。
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/8afddf02cafc804cd4e6763a719d5b74.jpg)
3.安装和配置Hadoop 先从Hadoop官网或者镜像网站上下载Hadoop的相应版本,下面是下载地址:http://archive.apache.org/dist/hadoop/core/ 我下载的是hadoop-0.20.203.0rc1.tar.gz,然后直接复制粘贴到ubuntu的Desktop上,再在/usr目录下建立hadoop文件夹, 将hadoop-0.20.203.0rc1.tar.gz文件直接解压到到/usr/hadoop目录下。
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/7a47c0c51c92ca3bcc396d035e92b21d.jpg)
解压之后,需要配置系统环境变量: 运行命令 sudo gedit /etc/profile 添加如下内容(注意HADOOPHOME是自己的hadoop-0.20.203.0rc1.tar.gz文件解压所在路径):
export HADOOPHOME=/usr/hadoop/hadoop-0.20.203.0export PATH=$HADOOPHOME/bin:$PATH添加完之后source /etc/profile,以保存更改。然后需要更改hadoop文件夹的所属者,将所属者赋予当前用户,我的当前用户是zwl(这个步骤很重要,否则集群运行时会提示权限不够),输入下面这个条命令(后面的zwl表示当前用户名,/usr/hadoop表示要修改的文件夹):sudo chown -hR zwl /usr/hadoop 接下来需要配置/usr/hadoop/hadoop-0.20.203.0/conf/hadoop-env.sh文件: 在该文件中添加内容:
export JAVA_HOME=/usr/lib/java/jdk1.6.0_45最后需要修改/usr/hadoop/hadoop-0.20.203.0/conf/目录下的core-site.xml、hdfs-site.xml、mapred-site.xml这三个文件: 三个文件的内容修改为下: core-site.xml
![](https://oscdn.geek-share.com/Uploads/Images/Content/201603/69c5a8ac3fa60e0848d784a6dd461da6.gif)
<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property><name>fs.default.name</name><value>hdfs://localhost:9000</value></property></configuration>
![](https://oscdn.geek-share.com/Uploads/Images/Content/201603/69c5a8ac3fa60e0848d784a6dd461da6.gif)
hdfs-site.xml
![](https://oscdn.geek-share.com/Uploads/Images/Content/201603/69c5a8ac3fa60e0848d784a6dd461da6.gif)
<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property><name>dfs.replication</name><value>1</value></property></configuration>
![](https://oscdn.geek-share.com/Uploads/Images/Content/201603/69c5a8ac3fa60e0848d784a6dd461da6.gif)
mapred-site.xml
![](https://oscdn.geek-share.com/Uploads/Images/Content/201603/69c5a8ac3fa60e0848d784a6dd461da6.gif)
<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration><property><name>mapred.job.tracker</name><value>localhost:9001</value></property></configuration>
![](https://oscdn.geek-share.com/Uploads/Images/Content/201603/69c5a8ac3fa60e0848d784a6dd461da6.gif)
在进行这些配置之后需要安装ssh,依次输入命令 sudo apt-get install ssh sudo apt-get install rsync 完成之后输入命令 ssh localhost 如果没有提示错误则安装成功(默认的.ssh文件夹在 /home/用户名/ 这个路径下,它是隐藏文件,快捷键Ctrl+H可以显示隐藏文件),然后需要为ssh设置免密码登录和设置权限,依次输入下面几条命令:
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsacat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys chmod 700 ~/.ssh chmod 644 ~/.ssh/authorized_keys完成之后再输入ssh localhost如果不需要输入密码的话则配置ssh免密码登录成功。 现在就可以启动hadoop集群了: 先进入到目录/usr/hadop/hadoop-0.20.203.0命令下,输入命令进行格式化: bin/hadoop namenode -format 然后启动集群:bin/start-all.sh,,如果提示以下信息则表示安装成功:
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/f438b85ee3d2807b3cc66468cdbc8900.jpg)
关闭集群可以通过命令bin/stop-all.sh来关闭。 hadoop集群启动之后就可以向它提交作业了,一般提交作业先需要将输入文件上传到HDFS,再将整个作业进行提交: 以自带的wordcount程序为例: 先进入到hadoop目录下面,输入命令:
bin/hadoop dfs -put /usr/test.txt /home/testin这条命令要注意两个参数:/usr.text.txt 是需要单词计数的源文件所在路径,/home/testin是HDFS读取输入文件所在路径 然后就可以提交了:
bin/hadoop jar hadoop-examples-*.jar wordcount /home/testin /home/testout这条命令主要注意后面两个路径,第一个路径是输入所在路径,第二个路径是作业执行的输出结果路径。 至此hadoop集群的安装和配置已经完成,接下来需要安装和配置Ganglia三.安装和配置Ganglia 1.安装ganglia-monitor ganglia-webfrontend gmetad 运行命令 sudo apt-get install ganglia-monitor ganglia-webfrontend gmetad进行安装。 安装过程中会弹出提示让重新启动apache2,选择“Yes”:
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/dec5c3316ce85249c17dea71ad4e8e8b.jpg)
完了之后会提示配置ganglia-webfrontend,选择“Yes“:
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/5fa107d75dff4cd221fcc38ef938c85c.jpg)
在这个过程会自动安装rrdtool,php这些东西,安装完成之后,需要进行一些配置: 先需要配置gmetad.conf,输入命令 sudo gedit /etc/ganglia/gmetad.conf 如果里面存在 datasource "my cluster" localhost
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/6562c746d59d116debb2540bfb17be7d.jpg)
则不用更改,否则添加进去 接着配置gmond.conf,输入命令 sudo gedit /etc/ganglia/gmond.conf 找到cluster块,将name设置成 "my cluster"。
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/87337b9d2133c9eaa4db79067b337f4f.jpg)
然后分别重启gmetad和gmond: sudo /etc/init.d/gmetad restart
sudo /etc/init.d/ganglia-monitor restart 接下来需要配置apche2下的httpd.conf文件,输入命令: sudo gedit /etc/apache2/httpd.conf 将 ServerName localhost:80 添加进去保存(若有则不用添加)。 再将默认的ganglia-webfrontend文件夹复制到apache的www目录下,输入命令: sudo cp -r /usr/share/ganglia-webfrontend /var/www/ganglia 然后重启apache,输入命令: sudo /etc/init.d/apache2 restart 现在打开浏览器,在地址栏输入http://localhost/ganglia就可以看到ganglia的首页了。
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/4fec3ea598e37b360f44f66e8f41272f.jpg)
ganglia安装成功之后,就需要进行一些配置让它来监控hadoop,这里主要修改/usr/hadoop/hadoop-0.20.203.0/conf/目录下的 hadoop-metrics2.properties文件,将这个文件的最下面六行注释去掉,改成:
![](https://oscdn.geek-share.com/Uploads/Images/Content/201603/69c5a8ac3fa60e0848d784a6dd461da6.gif)
namenode.sink.ganglia.servers=239.2.11.71:8649datanode.sink.ganglia.servers=239.2.11.71:8649jobtracker.sink.ganglia.servers=239.2.11.71:8649tasktracker.sink.ganglia.servers=239.2.11.71:8649maptask.sink.ganglia.servers=239.2.11.71:8649reducetask.sink.ganglia.servers=239.2.11.71:8649
![](https://oscdn.geek-share.com/Uploads/Images/Content/201603/69c5a8ac3fa60e0848d784a6dd461da6.gif)
保存关闭之后就可以对hadoop集群进行监控了。
![](https://oscdn.geek-share.com/Uploads/Images/Content/202009/14/4ba6e4ad1dcaa734bd40460c98252dd4.jpg)
注意我这里所有的配置都是针对hadoop的伪分布式模式的,伪分布式模式就是Namenode和datanode都在一台机器上,模拟成分布式。 关于hadoop和Ganglia的配置就讲到这里了,若有地方有问题,最好查阅官方文档。作者:海子出处:http://www.cnblogs.com/dolphin0520/本博客中未标明转载的文章归作者海子和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。
原文链接:/article/4719014.html
相关文章推荐
- 在VMware Workstation的Ubuntu下安装和配置Hadoop与Ganglia
- Ubuntu Server 14.04 安装配置Ganglia监控Hadoop
- ubuntu安装Ganglia监控Hadoop及Hbase集群性能(安装配置)
- Ubuntu14.04安装配置Hadoop2.6.0(完全分布式)与 wordcount实例运行
- Ubuntu14安装配置Hadoop2.6.0(完全分布式)与 wordcount实例运行
- Ubuntu下伪分布式模式Hadoop的安装及配置
- 虚拟机Ubuntu下Hadoop2.6.1的安装和配置(伪分布式)
- 64位Ubuntu1404集群安装配置hadoop-2.2.0
- ubuntu下安装Ganglia并绑定hadoop集群
- VMware 的Ubuntu下安装和配置Ganglia
- Ganglia监控Hadoop及Hbase集群性能(安装配置)
- Hadoop 2.5.1在Ubuntu 14.04安装和配置(伪分布模式)
- hadoop第一篇,在Ubuntu14.04安装hadoop2.7.3伪分布式配置
- Ubuntu下安装配置Hadoop独立模式和伪分布式
- ubuntu下hadoop安装与伪分布式的配置
- 基于Ubuntu的Hadoop简易集群安装与配置
- 大数据基础(五)从零开始安装配置Hadoop 2.7.2+Spark 2.0.0到Ubuntu 16.04
- Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04
- Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04
- Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04