jupyter与spark kernel结合的notebook安装及使用
2016-03-29 15:04
489 查看
安装环境
mac/ OS X 10.9.5, 64位/ sbt/ git
1、Install Jupyter and Python
使用Anaconda安装jupyter, Anaconda自带Python2.7和Python3.5
Anaconda下载地址
Anaconda官网提供各操作系统版本下载,包括Windows,Linux,OS X,32位及64位,选择适合自己版本的下载
#bash Anaconda3-2.5.0-MacOSX-x86_64.sh
不论是Linux还是OS X都请使用bash命令,使用. Anaconda3-2.5.0-Linux-x86_64.sh或者./Anaconda3-2.5.0-Linux-x86_64.sh 都不能安装成功,楼主亲测
Welcome to Anaconda3 2.5.0 (by Continuum Analytics Inc.) In order to continue the installation process, please review the licenseagreement.Please, press ENTER to continue>>>
一路回车
Do you approve the license terms?[yes|no]>>>
当然是yes
Anaconda3 will now be installed into this location:/User/zhangsan/anaconda3 - Press ENTER to confirm the location - Press CTRL-C to abort the installation - Or specify a different location below[/User/zhangsan/anaconda3]>>>
Anaconda默认的安装路径是/User/zhangsan/anconda3/, 当然也可以自己指定安装目录,在这里输入即可。
安装完成之后打开新的终端
#jupyter notebook会启动并且自动在浏览器中打开http://localhost:8888/tree#
[I 17:37:52.287 NotebookApp] Serving notebooks from local directory: /Users/zhangsan/anaconda3[I 17:37:52.287 NotebookApp] 0 active kernels [I 17:37:52.287 NotebookApp] The Jupyter Notebook is running at: http://localhost:8888/[I 17:37:52.287 NotebookApp] Use Control-C to stop this server and shut down all kernels (twice to skip confirmation).
当然这里可以选择性的手动制定端口和webUI地址,之后手动打开UI,使用如下命令
#jupyter notebook --no-browser --port 5678 --ip=9.21.63.204指定暂时不打开浏览器,端口为5678,IP为安装Anaconda的本机IP地址,之后手动在浏览器中输入9.21.63.204:5678打开
到这里我们已经成功安装了IPython的notebook,启动notebook
写入一段代码测试一下,这里是一个Python画图程序,点击run cell可以看到运行结果是一个sin,cos函数图像
2、Install a kernel other than Python(以Scala为例)
#jupyter kernelspec list
可查看已经安装了的kernel
Available kernels: python3 /Users/daheng/anaconda3/lib/python3.5/site-packages/ipykernel/resources可以看到目前只有python3
jupyter提供了Python之外的许多编程语言的支持,list of available kernels 如R,Go, Scala等等,不过都需要用户手动安装
选择自己需要的Scala版本下载,提供了Scala 2.10 和 Scala 2.11,这里我们以2.10为例
jupyter-scala下载地址
解压至任何目录均可
#cd jupyter-scala_2.10.5-0.2.0-SNAPSHOT/bin
#bash jupyter-scala同样请使用bash
Generated ~/.ipython/kernels/scala210/kernel.jsonRun ipython console with this kernel with ipython console --kernel scala210Use this kernel from IPython notebook, running ipython notebookand selecting the "Scala 2.10" kernel.
安装完后再次查看,会发下kernels里面多了scala210
#jupyter kernelspec listAvailable kernels: scala210 /Users/daheng/.ipython/kernels/scala210 python3 /Users/daheng/anaconda3/lib/python3.5/site-packages/ipykernel/resources再次启动notebook
#jupyter notebook可以看到已经可以new一个Scala的notebook了
到这里我们已经有了Python和Scala的notebook
3、Install Spark-kernel
这里是重点也是难点,官方提供的文档过于复杂,找不到合适的安装方法,楼主也是摸索了很久才成功的将jupyter和spark结合到了一起
首先下载spark,楼主使用了spark-1.5.1-bin-hadoop2.6
spark下载地址
#tar -xvf spark-1.5.1-bin-hadoop2.6.tgz
解压至你想要的目录,如/User/zhangsan/Documents
指定SPARK_HOME
#export $SPARK_HOEM=/User/zhangsan/Documents/spark-1.5.1-bin-hadoop2.6
#cd /User/zhangsan/anaconda3/
#git clone https://github.com/apache/incubator-toree.git[/code]这里需要你的机子可以使用git,如果不能请自行安装git,这里就不详解了#cd incubator-toree下面要编译spark kernel,打开Makefile可以看到,默认是编译1.5.1,当然可以自己指定,只要与本地SPARK_HOME统一版本就ok#export APACHE_SPARK_VERSION=1.6.1这样就可以编译指定版本的spark kernel了编译需要sbt,请保证sbt已经正确安装编译使用以下命令#make build这里会自动下载解决相关依赖的问题,所以时间会很久,最好在网速较好的地方做。[success] Total time: 274 s, completed 2016-3-29 11:05:52最后出现success,就说明编译成功了#make dist#cd dist/toree/bin#ls会看到这有一个run.sh文件,记住这个路径和文件名,后面配置会用到#cd /User/zhangsan/.ipython/kernels/spark#vim kernel.json{"display_name": "Spark 1.5.1 (Scala 2.10.4)","lauguage_info": {"name": "scala"},"argv": [ "/Users/zhangsan/anaconda3/incubator-toree/dist/toree/bin/run.sh", "--profile", "{connection_file}"],"codemirror_mode": "scala","env": { "SPARK_OPTS": "--master=local[2] --driver-java-options=-Xms1024M --driver-java-options=-Xms4096M --driver-java-options=-Dlog4j.logLevel=info", "MAX_INTERPRETER_THREADS": "16", "CAPTURE_STANDARD_OUT": "true", "CAPTURE_STANDARD_ERR": "true", "SEND_EMPTY_OUTPUT": "false", "SPARK_HOME": "/Users/zhangsan/Documents/spark-1.5.1-bin-hadoop2.6", "PYTHONPATH": "/Users/zhangsan/Documents/spark-1.5.1-bin-hadoop2.6/python:/Users/zhangsan/Documents/spark-1.5.1-bin-hadoop2.6/python/lib/py4j-0.8.2.1-src.zip"}#jupyter kernelspec listAvailable kernels: scala210 /Users/daheng/.ipython/kernels/scala210 spark /Users/daheng/.ipython/kernels/spark python3 /Users/daheng/anaconda3/lib/python3.5/site-packages/ipykernel/resources到这里我们就成功安装了spark kernel#jupyter notebook再次打开notebook,就可以new一个spark的notebook了写一段代码测试一下吧这是一个sparkPi程序,点击run cell会看到运行结果到这里我们就成功的安装了spark-kernel第一次写技术博客,欢迎各位评论指正与提问
相关文章推荐
- Genymotion解决无法下载镜像问题
- Android中View(视图)绘制不同状态背景图片原理深入分析以及StateListDrawable使用详解
- JS实现子元素scroll父元素容器不跟随滚动
- WebSocket与STOMP介绍
- 测试3.29作业 叶乔菲 3013218151
- Oracle密码过期
- 字体类形:font-family, font-style
- 关于vmware虚拟机硬件里没有软盘驱动器,而操作系统里还有的解决方法
- 指针数组与数组指针
- Leetcode 100. Same Tree
- C#静态构造函数
- php ajax实现文件上传进度条
- shell脚本之exec操作文件描述符 + 示例
- 浅谈矩阵分解在推荐系统中的应用
- (一)RxJava在Android网络框架中的使用
- basePath
- 在Interface Builder中有效地工作的8个技巧
- jquery.lazyload的使用
- Nginx的事件处理机制
- 关于某培训机构所谓的入学考试(被拒),呵呵