您的位置:首页 > 其它

Spark安装部署

2016-03-30 12:22 369 查看


Spark集群搭建

一、准备工作

1、三台机器,配置hosts,并确保java环境jdk1.7.0_72,scala环境scala-2.11.4

192.168.5.231   ubuntu231

192.168.5.232   ubuntu232

192.168.5.233   ubuntu233

2、ubuntu231选择作为主节点Master

下载spark-1.3.1-bin-hadoop2.6安装包

二、解压

解压安装包到指定路径

这里的全路径是
/home/spark

三、ssh免密配置(已经配置过就不用再配置)

$ ssh-keygen -t rsa

$ ssh-copy-id -i ~/.ssh/id_rsa.pub 要免密码的机器的IP

四、环境变量配置

spark@ubuntu231:~$ vi .profile 

export SCALA_HOME=/home/spark/scala-2.11.4



export SPARK_HOME=/home/spark/spark-1.3.1-bin-hadoop2.6

五、配置Spark

在spark-1.3.1-bin-hadoop2.6/conf目录下

1、配置 spark-env.sh

 

2、配置slaves



六、将配置好的hadoop文件copy到另外两台slave机器上(请保持目录一致)

scp -r spark-1.3.1-bin-hadoop2.6/ spark@192.168.5.232:~/
scp -r spark-1.3.1-bin-hadoop2.6/ spark@192.168.5.233:~/
到这里我们配置工作已经完成了

七、启动Spark集群

spark@ubuntu231:~/spark-1.3.1-bin-hadoop2.6$ cd sbin/
spark@ubuntu231:~/spark-1.3.1-bin-hadoop2.6/sbin$ ./start-all.sh 


八、通过webui查看集群状态
浏览器输入 http://192.168.5.231:8090/
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: