Spark2.0功能测试和日志查看
2018-01-10 18:52
274 查看
一、spark2.0功能测试
1.Spark-shell
在spark的sbin使用spark-shell命令开启,使用如下例子测试:
scala>val file=sc.textFile("hdfs://namenode:9000/user/hadoop/input/core-site.xml")
scala>val count=file.flatMap(line=>line.split(" ")).map(word=>(word,1)).reduceByKey(_+_)
scala>count.collect()
scala>count.saveAsTextFile("hdfs://namenode:9000/user/hadoop/output/core-site-result1.txt")
输出结果如下:
可以在50070端口查看输出结果:
2.Spark-submit
Yarn模式:
./bin/spark-submit --class org.apache.spark.examples.SparkPi \
--master yarn \
--deploy-mode cluster \
--executor-cores 1 \
--queue default \
examples/jars/spark-examples_2.11-2.0.0.jar \
10
运行的命令行输出如下:
得到的输出如下:
访问log页面可以看到计算出的Pi结果。
二、查看spark日志
1.Spark-shell的例子的输出日志
NameNode的4040端口可以查看jobs的日志如下:
NameNode的8082端口(默认为8080)WebUI可以查看applications的日志如下:
2.Spark-submit的yarn模式例子的输出日志
1)通过hadoop的8088端口可以查看application的运行情况:
点击logs链接可以查看stdout和stderr如下:
Stderr:
Stdout:
2)也可以通过yarn的logs方法查看相应applicationID的日志
使用yarn logs -applicationId application_1496365682313_0003查看日志;yarn applicaiton -status application_1496365682313_0003查看application的状态。
3)还可以通过配置spark将日志存放到hdfs的/history_server目录下,查看过程如下:
4)另外测试过程中发现Spark的日志要过一段时间才可以在webUI上显示: http://192.168.80.129:8082/
http://192.168.80.129:8082/app/?appId=app-20170602104435-0000
http://192.168.80.131:8081/
http://192.168.80.132:8081/
http://192.168.80.132:8081/logPage/?driverId=driver-20170602104409-0000&logType=stdout
http://192.168.80.132:8081/logPage/?driverId=driver-20170602104409-0000&logType=stderr
说明:要在win7宿主机中查看WebUI中日志,需要配置host。
1.Spark-shell
在spark的sbin使用spark-shell命令开启,使用如下例子测试:
scala>val file=sc.textFile("hdfs://namenode:9000/user/hadoop/input/core-site.xml")
scala>val count=file.flatMap(line=>line.split(" ")).map(word=>(word,1)).reduceByKey(_+_)
scala>count.collect()
scala>count.saveAsTextFile("hdfs://namenode:9000/user/hadoop/output/core-site-result1.txt")
输出结果如下:
可以在50070端口查看输出结果:
2.Spark-submit
Yarn模式:
./bin/spark-submit --class org.apache.spark.examples.SparkPi \
--master yarn \
--deploy-mode cluster \
--executor-cores 1 \
--queue default \
examples/jars/spark-examples_2.11-2.0.0.jar \
10
运行的命令行输出如下:
得到的输出如下:
访问log页面可以看到计算出的Pi结果。
二、查看spark日志
1.Spark-shell的例子的输出日志
NameNode的4040端口可以查看jobs的日志如下:
NameNode的8082端口(默认为8080)WebUI可以查看applications的日志如下:
2.Spark-submit的yarn模式例子的输出日志
1)通过hadoop的8088端口可以查看application的运行情况:
点击logs链接可以查看stdout和stderr如下:
Stderr:
Stdout:
2)也可以通过yarn的logs方法查看相应applicationID的日志
使用yarn logs -applicationId application_1496365682313_0003查看日志;yarn applicaiton -status application_1496365682313_0003查看application的状态。
3)还可以通过配置spark将日志存放到hdfs的/history_server目录下,查看过程如下:
4)另外测试过程中发现Spark的日志要过一段时间才可以在webUI上显示: http://192.168.80.129:8082/
http://192.168.80.129:8082/app/?appId=app-20170602104435-0000
http://192.168.80.131:8081/
http://192.168.80.132:8081/
http://192.168.80.132:8081/logPage/?driverId=driver-20170602104409-0000&logType=stdout
http://192.168.80.132:8081/logPage/?driverId=driver-20170602104409-0000&logType=stderr
说明:要在win7宿主机中查看WebUI中日志,需要配置host。
相关文章推荐
- 物理DG以WR方式打开 - 测试COPY功能后 恢复 standby应用日志。
- (8)Spark 2.0.0 查看job 历史日志
- 本地spark测试tomcat日志处理
- Selenium2.0功能测试之访问站点及获取页面信息(Java版) 【转】
- Selenium2.0功能测试之唯一元素的定位
- 物理DG以WR方式打开 - 测试COPY功能后 恢复 standby应用日志。(二)
- 查看spark on yarn的日志和程序状态的方法
- 开启Hadoop/Yarn的日志监控功能,解决web端查看日志时的Java.lang.Exception:Unknown container问题
- spark 查看 job history 日志
- 物理DG以WR方式打开 - 测试COPY功能后 恢复 standby应用日志。(三)
- 测试客户端写日志功能!
- Hadoop2.x 一些知识,MapReduce历史服务配置启动查看,YARN的日志聚集功能配置使用
- 大话APP测试2.0笔记——抓包查看响应时间
- 11.开源项目--git查看日志功能
- 关闭linux日志功能后性能测试
- spark 查看 job history 日志
- 查看后台日志辅助测试 [ 光影人像 东海陈光剑 的博客 ]
- spark sql 功能测试及总结 (1.4.1版本)
- spark下测试akka的分布式通讯功能
- Spark升级到2.0后测试stream-kafka测试报java.lang.NoClassDefFoundError: org/apache/spark/Logging错误