Hadoop运维(3) Spark集群部署
2016-12-28 01:31
423 查看
1. 安装Scala
从scala官网,下载最新的以.tgz结尾的文件通过tar zxf解压
将文件夹放到/usr/local/scala中
设置环境变量SCALA_HOME与PATH
通过scala -version进行验证。
2. 部署Spark
官网下载spark修改spark-env.sh
# 添加以下内容 export JAVA_HOME=/usr/lib/jvm/jdk8 export SCALA_HOME=/usr/local/scala export SPARK_WORKER_MEMORY=100m export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
修改slaves
# 添加以下内容 slave1
将spark部署到所有主机的相同位置,并执行sbin/start-all.sh。查看http://master:8080验证spark是否启动成功。
相关文章推荐
- hadoop+spark集群自动化部署实现
- Hadoop2.2集群安装配置-Spark集群安装部署
- Spark2.0.1 on yarn with hue 集群搭建部署(五)hue安装支持hadoop
- Spark Hadoop集群部署与Spark操作HDFS运行详解---Spark学习笔记10
- Spark核心源码分析与开发实战(1)-----------SSH hadoop spark集群部署
- spark-2.2.0 集群安装部署以及hadoop集群部署
- hadoop集群上部署spark
- Spark2.0 + Hadoop2.7.2 + Centos7 集群部署<一>
- CentOS64位6.4下Hadoop2.7.1、Mysql5.5.46、Hive1.2.1、Spark1.5.0的集群环境部署
- Spark Hadoop集群部署与Spark操作HDFS运行详解---Spark学习笔记10
- Hadoop及Spark集群部署
- 在OpenStack(Mitaka版本)上通过Sahara部署Hadoop&Spark集群
- Hadoop2.7.3+spark2.1.0+hbase0.98分布式集群部署
- 为Spark部署HADOOP2.6的HDFS集群
- Hadoop+Spark 集群部署
- Hadoop2.2集群安装配置-Spark集群安装部署
- Hadoop大数据框架研究(3)——Spark的HA高可用性集群环境部署
- spark-2.2.0 集群安装部署以及hadoop集群部署
- 【Hadoop】hadoop2.7.3-spark2.0.2集群部署总结
- Spark2.1.0 + CarbonData1.0.0+hadoop2.7.2集群模式部署及使用入门