第一个spark程序
2017-07-21 15:58
190 查看
我用的是Intellij编写的scala程序
首先配置build.sbt文件
首先配置build.sbt文件
name := "mytest" version := "1.0" scalaVersion := "2.11.0" libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.2.0"
然后编写主程序
/** * Created by lxs on 17-7-21. */ import org.apache.spark.SparkContext import org.apache.spark.SparkContext._ object sparkApp { def main(args: Array[String]): Unit = { val sc=new SparkContext("local[2]","First Spark App") val data=sc.textFile("/home/lxs/Documents/UserPurchaseHistory.csv") .map(line => line.split(",")) .map(purchaseRecord => (purchaseRecord(0),purchaseRecord(1),purchaseRecord(2))) //求购买次数 val numPurchases=data.count() //求多少个不同客户买过商品 val uniqueUses=data.map{case(user,product,price) =>user}.distinct().count() //求和得出总收入 val totalRevenue=data.map{case(user,product,price) => price.toDouble}.sum() //求得最畅销商品 val productsByPopularity=data.map{case(user,product,price) =>(product,1)}.reduceByKey(_+_).collect().sortBy(-_._2) val mostPopular=productsByPopularity(0) println("Total purchases:"+ numPurchases) println("unique users:"+uniqueUses) println("Total revene:"+totalRevenue) println("Most popular product:%s with %d purchases".format(mostPopular._1,mostPopular._2)) } }
相关文章推荐
- 第一个Spark程序
- pysaprk菜鸟笔记-第3课-利用spark写自己的第一个pysaprk程序
- 极简 Spark 入门笔记——安装和第一个回归程序
- spark下载安装和第一个Wordcount程序
- 提交Spark第一个程序
- Local模式下开发第一个Spark程序并运行于集群环境
- 第一个spark程序
- 极简 Spark 入门笔记——安装和第一个回归程序
- Spark 安装及运行第一个程序遇到问题总结
- 从Intellij IDEA开始第一个Spark程序
- 大数据Spark “蘑菇云”行动前传第3课:在IDE下开发第一个Scala程序透彻解析及Scala控制结构详解实战
- Spark学习之第一个程序打包、提交任务到集群
- Spark第一个程序开发 wordcount
- 运行第一个spark程序
- 我的spark第一个程序应用(python版)
- 使用Scala写第一个Spark程序
- spark 第一个java程序
- Spark学习之第一个程序打包、提交任务到集群
- 使用IDEA进行Spark开发(二)-第一个scala程序
- Spark入门实战指南——Spark生态圈+第一个Spark程序