Spark1.6安装-Standalone
2015-12-22 18:00
489 查看
1.下载scala-2.11.8包解压到指定目录
#SCALA VARIABLES START
export SCALA_HOME=/opt/app/tools/scala-2.11.8
export PATH=$SCALA_HOME/bin:$PATH
#SCALA VARIABLES END
2.下载spark-1.6.1-bin-hadoop2.6包解压到指定目录
#SPARK VARIABLES START
export SPARK_HOME=/opt/app/spark/spark-1.6.1-bin-hadoop2.6
export PATH=$SPARK_HOME/bin:$PATH
#SPARK VARIABLES END
3.配置spark-env.sh
SPARK_MASTER_IP=192.168.56.101
SPARK_MASTER_PORT=7077
SPARK_WORKER_PORT=8086
SPARK_MASTER_WEBUI_PORT=8085
SPARK_LOCAL_DIRS=/opt/app/spark/data
#SPARK_MASTER_OPTS=
SPARK_LOCAL_IP=192.168.56.101
#SPARK_WORKER_CORES=
SPARK_WORKER_MEMORY=512m
SPARK_WORKER_PORT=8087
SPARK_WORKER_WEBUI_PORT=8088
SPARK_WORKER_INSTANCES=1
SPARK_WORKER_DIR=/opt/app/spark/worker
#SPARK_WORKER_OPTS=
SPARK_DAEMON_MEMORY=512m
#SPARK_HISTORY_OPTS=
#SPARK_SHUFFLE_OPTS=
#SPARK_DAEMON_JAVA_OPTS=
#SPARK_PUBLIC_DNS=
4.spark-default.xml配置
spark.eventLog.enabled true
4.启动
启动主节点:./sbin/start-master.sh
启动后查看spark目录下的logs文件夹,看日志中默认启动端口
MasterWebUI: Started MasterWebUI at http://192.168.56.101:8085
启动从节点: ./sbin/start-slave.sh spark://192.168.56.101:7077
5.验证
浏览器打开http://192.168.56.101:8085,workers下面会多一个功能进程
6.MySQL数据库连接
添加MySQL驱动:在spark-env.sh中添加SPARK_CLASSPATH={path}/mysql-connector-java-5.1.38.jar配置
#SCALA VARIABLES START
export SCALA_HOME=/opt/app/tools/scala-2.11.8
export PATH=$SCALA_HOME/bin:$PATH
#SCALA VARIABLES END
2.下载spark-1.6.1-bin-hadoop2.6包解压到指定目录
#SPARK VARIABLES START
export SPARK_HOME=/opt/app/spark/spark-1.6.1-bin-hadoop2.6
export PATH=$SPARK_HOME/bin:$PATH
#SPARK VARIABLES END
3.配置spark-env.sh
SPARK_MASTER_IP=192.168.56.101
SPARK_MASTER_PORT=7077
SPARK_WORKER_PORT=8086
SPARK_MASTER_WEBUI_PORT=8085
SPARK_LOCAL_DIRS=/opt/app/spark/data
#SPARK_MASTER_OPTS=
SPARK_LOCAL_IP=192.168.56.101
#SPARK_WORKER_CORES=
SPARK_WORKER_MEMORY=512m
SPARK_WORKER_PORT=8087
SPARK_WORKER_WEBUI_PORT=8088
SPARK_WORKER_INSTANCES=1
SPARK_WORKER_DIR=/opt/app/spark/worker
#SPARK_WORKER_OPTS=
SPARK_DAEMON_MEMORY=512m
#SPARK_HISTORY_OPTS=
#SPARK_SHUFFLE_OPTS=
#SPARK_DAEMON_JAVA_OPTS=
#SPARK_PUBLIC_DNS=
4.spark-default.xml配置
spark.eventLog.enabled true
4.启动
启动主节点:./sbin/start-master.sh
启动后查看spark目录下的logs文件夹,看日志中默认启动端口
MasterWebUI: Started MasterWebUI at http://192.168.56.101:8085
启动从节点: ./sbin/start-slave.sh spark://192.168.56.101:7077
5.验证
浏览器打开http://192.168.56.101:8085,workers下面会多一个功能进程
6.MySQL数据库连接
添加MySQL驱动:在spark-env.sh中添加SPARK_CLASSPATH={path}/mysql-connector-java-5.1.38.jar配置
相关文章推荐
- 其实你什么都不用担心
- ios开发——实用技术篇&Block/KVO/通知/代理
- Excel表头转html表头(PHP版本)
- 普法知识(46):违反政治纪律案例分析
- 高性能 TCP & UDP 通信框架 HP-Socket v3.2.3 正式公布
- 解决CAS单点登录出现PKIX path building failed的问题
- 使用CMake来构建STM32工程
- 自定义添加多列多行radioGroup
- svm小问题
- 数据库导入/导出
- SQL游标 更新
- iOS 微信 新浪 qq 第三方登录
- 关于MYSQL保存emoji表情及openfire处理办法
- 性能测试案例模版
- uboot启动
- 关于递推与递归的斐波那契数列实现
- Linux C 内存管理
- Android Canvas的save(),saveLayer()和restore()浅谈
- 2015年11月数据安全漏洞分析报告
- HTTP POST请求报文格式分析与Java实现文件上传