大数据系列第六课:Spark集群环境搭建
2016-01-08 19:09
811 查看
第一阶段:Spark streaming、spark sql、kafka、spark内核原
理(必须有一个大型项目经验);
第二阶段:spark运行的各种环境,各种故障的解决,性能 优化(精通spark内核、运行原理);
第三阶段:流处理、机器学习为鳌头,需要首先掌握前两个 阶段的内容;
跟随王家林老师的零基础讲解,注重动手实战,成为spark高手,笑傲大数据之林!
第一部分:学习笔记
1 关于虚拟机与Linux
2 Hadoop集群的搭建和配置
3 Spark集群的搭建和配置
4,讨论与作业
(1)首先安装VMware Workstation12
(2)安装好Ubuntu14:Master和Worker
安装ssh(遇到如下问题)
1.一个彻底去掉这个提示的方法是,修改/etc/ssh/ssh_config文件(或$HOME/.ssh/config)中的配置,添加如下两行配置:
StrictHostKeyChecking no
UserKnownHostsFile /dev/null
修改/etc/ssh/sshd-config文件,将其中的PermitRootLogin no修改为yes,PubkeyAuthentication yes修改为no,AuthorizedKeysFile .ssh/authorized_keys前面加上#屏蔽掉,PasswordAuthentication no修改为yes就可以了。
2. apt-get install aptitude
aptitude install openssh-server
3.安装ssh无秘钥登录
(3)安装Java
Java -version后,显示Java版本
(4)安装Hadoop并运行Wordcount程序
(5)配置伪分布式
core-site.xml
Mapred-site.xml
Hdfa-site.xml
(7)安装Scala
(8)安装启动Spark
(9)测试Spark
(10)SparkPi
理(必须有一个大型项目经验);
第二阶段:spark运行的各种环境,各种故障的解决,性能 优化(精通spark内核、运行原理);
第三阶段:流处理、机器学习为鳌头,需要首先掌握前两个 阶段的内容;
跟随王家林老师的零基础讲解,注重动手实战,成为spark高手,笑傲大数据之林!
第一部分:学习笔记
1 关于虚拟机与Linux
2 Hadoop集群的搭建和配置
3 Spark集群的搭建和配置
4,讨论与作业
(1)首先安装VMware Workstation12
(2)安装好Ubuntu14:Master和Worker
安装ssh(遇到如下问题)
1.一个彻底去掉这个提示的方法是,修改/etc/ssh/ssh_config文件(或$HOME/.ssh/config)中的配置,添加如下两行配置:
StrictHostKeyChecking no
UserKnownHostsFile /dev/null
修改/etc/ssh/sshd-config文件,将其中的PermitRootLogin no修改为yes,PubkeyAuthentication yes修改为no,AuthorizedKeysFile .ssh/authorized_keys前面加上#屏蔽掉,PasswordAuthentication no修改为yes就可以了。
2. apt-get install aptitude
aptitude install openssh-server
3.安装ssh无秘钥登录
(3)安装Java
Java -version后,显示Java版本
(4)安装Hadoop并运行Wordcount程序
(5)配置伪分布式
core-site.xml
Mapred-site.xml
Hdfa-site.xml
(7)安装Scala
(8)安装启动Spark
(9)测试Spark
(10)SparkPi
object SparkPi { def main(args: Array[String]) { val conf = new SparkConf().setAppName("Spark Pi") val spark = new SparkContext(conf) val slices = if (args.length > 0) args(0).toInt else 2 val n = math.min(100000L * slices, Int.MaxValue).toInt // avoid overflow val count = spark.parallelize(1 until n, slices).map { i => val x = random * 2 - 1 val y = random * 2 - 1 if (x*x + y*y < 1) 1 else 0 }.reduce(_ + _) println("Pi is roughly " + 4.0 * count /
相关文章推荐
- A. Saitama Destroys Hotel
- 关于baidu的页面
- 【转】NSBundle的使用,注意mainBundle和Custom Bundle的区别
- Bug收集:{ status code: 200, headers { "Content-Length" = 14; "Content-Type" = "text/plain;char
- 解读2015之大数据篇:大数据的黄金时代
- Manual doesn't explain that max_connections is "autosized" when ulimit -n is low
- 关于Installation error: INSTALL_FAILED_INSUFFICIENT_STORAGE的报错的最有效的解决方法
- 【人工智能】A*算法
- 获取 BaiduMapSDKDemo SHA1 签名
- WinMain函数
- loadrunner---压力机 出现TIME_WAIT状态的解决方法
- HDFS 基础
- RAID5数据应该如何恢复
- Failed to sync Gradle Project "xxx"解决方案
- Layout in Rails
- spark standalone模式安装和语法
- 大数据教父Michael Stonebraker告诉你大数据的秘密
- 个人对container_of宏的理解
- pig安装和使用
- 老男孩教育参观云计算公司