Spark1.6.0 on Hadoop-2.6.3 安装配置
2016-01-14 14:05
351 查看
安装配置Scala
1 下载scala下载解压scala包:略
附:下载链接
http://www.scala-lang.org/download/2.10.4.html
移动scala到指定目录 mkdir /usr/local/scala mv scala-2.10.4 /usr/local/scala
2 配置scala环境变量
export SCALA_HOME=/usr/local/scala/scala-2.10.4 export PATH=${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${SCALA_HOME}/bin:$PATH
source .bashrc 使配置生效,显示安装的scala版本
3 测试scala运行环境
输入scala进入scala环境: 测试:12*12 回车
安装配置Spark1.6.0
1 下载Spark1.6.0根据Hadoop选择对应版本下载Spark
附:下载链接 http://spark.apache.org/downloads.html[/code]
将下载解压后的spark移动到指定目录(/usr/local/spark)mkdir /usr/local/spark mv spark-1.6.0-bin-hadoop2.6 /usr/local/spark
2 配置Spark环境变量export SPARK_HOME=/usr/local/spark/spark-1.6.0-bin-hadoop2.6 export PATH=${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${SCALA_HOME}/bin:${SPARK_HOME}/bin:$PATH
注:source .bashrc 使配置生效
3 配置Sparkcp spark-env.sh.template spark-env.sh vim spark-env.sh
添加SPARK配置信息export JAVA_HOME=/usr/lib/java8/jdk1.8.0_65 export SCALA_HOME=/usr/local/scala/scala-2.10.4 export SPARK_MASTER_IP=hjr export SPARK_WORKER_CORES=2 export SPARK_WORKER_MEMORY=1g export HADOOP_CONF_DIR=/usr/local/hadoop/hadoop-2.6.3/etc/hadoopcp slaves.template slaves vim slaves
注意 IP 地址:添加节点: hjr 或者 127.0.1.1
4 启动Spark,查看集群状况cd /usr/local/spark/spark-1.6.0-bin-hadoop2.6 启动: ./start-all.shjps查看进程:多了一个Master和Worker进程启动:spark-shell
测试运行:val file=sc.textFile("hdfs:/hjr/hdfs-site.xml")val count=file.flatMap(line=>line.split(" ")).map(word=>(word,1)).reduceByKey(_+_)count.collect
Spark UI:
相关文章推荐
- linux下mysql二进制包安装
- Linux
- TOMCAT异常 Socket bind failed: [730048] tomcat不能启动
- Linux C
- 利用shell脚本来监控linux系统的内存
- Unix
- 利用shell脚本来监控linux系统的负载与CPU占用情况
- MTK-OPENWRT加4G驱动
- 使用Shell脚本对Linux系统和进程资源进行监控
- CentOS 6.4下PXE+Kickstart无人值守安装操作系统
- invalid operator <
- 2016-01-14 OpenCV中Mat属性step,size,step1,elemSize,elemSize1
- linux的root用户不能远程连接mysql数据库
- linux性能监控概览
- Linux系统上安装MySQL(rpm)
- Java 希尔排序(Shell Sort)
- tomcat部署web工程
- linux下性能监控shell脚本实现系列一(服务器整体性能监控)
- Hadoop 1.x 、Hadoop 2.x 生态系统学习(复制前辈的文章)
- 用使用lynis进行linux系统安全审计