spark:--spark-shell运行简单语句、用Idea编写例子--8
2015-02-06 15:20
302 查看
spark集群启动:MASTER=spark://host:port ./spark-shell
**********************************
在终端:hadoop fs -tail /lab/SogouQ.full
***********************************
scala> val data = sc.textFile("hdfs://server1:9000/lab/SogouQ.full")
***********************
scala> data.count//统计数据多少行 在web端查看
*************************
scala> data.cache//速度飙升
***********************
scala> data.count
****************************
scala> data.map(_.split('\t')(0)).filter(_ < "20140202020202").count
***************************
scala> data.map(_.split('\t')(3)).filter(_.toInt == 1).count//计算收索排名第一的
****************************
scala> data.map(_.split('\t')).filter(_(3).toInt == 1).filter(_(4).toInt == 1).count//在这些收索排名第一的文件中有多少是第一次就被收索到的
**************************
scala> data.map(_.split('\t')).filter(_(2).contains("baidu")).count//查看用搜狗浏览器收索百度的
**************************
例:
1.在终端上hadoop fs -ls /lab/NY//显示纽约时报数据文件存放路径
2.hadoop fs -tail /lab/NY/docword.nytimes.txt//文章里单词的出现频率
3.用intellij idea编译算法(要求),打包发到集群
4.在终端:java -jar ./xxxxxx.jar(包含main函数的包) ./XXXXXX.jar(要传输的函数包) hdfs://$$$$$(hadoop:从哪边取数据) hdfs://*****(将数据存放的路径)
************************
初学者现在spark-shell上编写 不必须在intellij上编写
**********************************
在终端:hadoop fs -tail /lab/SogouQ.full
***********************************
scala> val data = sc.textFile("hdfs://server1:9000/lab/SogouQ.full")
***********************
scala> data.count//统计数据多少行 在web端查看
*************************
scala> data.cache//速度飙升
***********************
scala> data.count
****************************
scala> data.map(_.split('\t')(0)).filter(_ < "20140202020202").count
***************************
scala> data.map(_.split('\t')(3)).filter(_.toInt == 1).count//计算收索排名第一的
****************************
scala> data.map(_.split('\t')).filter(_(3).toInt == 1).filter(_(4).toInt == 1).count//在这些收索排名第一的文件中有多少是第一次就被收索到的
**************************
scala> data.map(_.split('\t')).filter(_(2).contains("baidu")).count//查看用搜狗浏览器收索百度的
**************************
例:
1.在终端上hadoop fs -ls /lab/NY//显示纽约时报数据文件存放路径
2.hadoop fs -tail /lab/NY/docword.nytimes.txt//文章里单词的出现频率
3.用intellij idea编译算法(要求),打包发到集群
4.在终端:java -jar ./xxxxxx.jar(包含main函数的包) ./XXXXXX.jar(要传输的函数包) hdfs://$$$$$(hadoop:从哪边取数据) hdfs://*****(将数据存放的路径)
************************
初学者现在spark-shell上编写 不必须在intellij上编写
package cn.spark import org.apache.spark.{SparkContext, SparkConf} import scala.collection.mutable.ListBuffer import org.apache.spark.SparkContext._ /** * Created by sendoh on 2015/2/6. */ class Analysis { } object Analysis{ def main(args : Array[String]): Unit = { if (args.length != 3) { println("Usage : java -jar code.jar dependency_jars file_location save_location") System.exit(0) } val jars = ListBuffer[String]() args(0).split(',').map(jars += _) val conf = new SparkConf() conf.setMaster("spark://server1:8888") .setSparkHome("/data/software/spark-1.2.0-incubating-bin-hadoop1") .setAppName("analysis") .setJars(jars) .set("spark.executor.memory", "25g") val sc = new SparkContext(conf) val data = sc.textFile(args(1)) data.cache println(data.count) data.filter(_.split(' ').length == 3).map(_.split(' ')(1)).map((_ .1) ).reduceByKey(_ + _) .map(x => (x._2, x._1)).sortByKey(false).map(x => (x._2, x._1)).saveAsTextFile(args(2)) } }
相关文章推荐
- spark:在spark-shell上运行一些sparkSQL简单语句--12
- 启动Spark Shell,在Spark Shell中编写WordCount程序,在IDEA中编写WordCount的Maven程序,spark-submit使用spark的jar来做单词统计
- windows下使用idea maven配置spark运行环境、运行WordCount例子以及碰到的问题
- IDEA可以正常运行,但是spark-shell不行
- Idea中编写并运行Spark集群(WordCount)
- IDEA编写Spark程序及手动Artifacts并运行
- 用java编写spark程序,简单示例及运行
- 用java编写spark程序,简单示例及运行
- windows下编写的shell脚本如何在Linux运行
- 一个查选优化的例子,转--SQL Server中存储过程比直接运行SQL语句慢的原因
- C++ 编写、 调用 dll 简单例子
- 一个运行在Web服务器上的远程管理简单例子
- [VB.NET]vb.net 中如何在窗体中画个圆,用circle语句能不能简单举个例子?谢谢
- bash shell 运行mysql oracle sql 语句
- 编写简单的网络版shell命令解释器
- 简单的shell多进程 (后台运行方式)
- Java动态编译一个简单的例子(我转载的,但是经过修定,可以在Eclipse下运行)
- 在 C# 平台中, 编写 Windows 服务的简单例子
- Shell 编程简单例子
- 编写SQL:看似简单,实际超难的SQL语句!