您的位置:首页 > 产品设计 > UI/UE

spark rdd countByValue

2015-01-18 14:45 357 查看
package com.latrobe.spark

import org.apache.spark.{SparkContext, SparkConf}

/**
* Created by spark on 15-1-18.
* 统计出集合中每个元素的个数
*/
object CountByValue {
def main(args: Array[String]) {
val conf = new SparkConf().setAppName("spark-demo").setMaster("local")
val sc = new SparkContext(conf)

val xx = sc.parallelize(List(1,1,1,1,2,2,3,6,5,9))

//打印结果:Map(2 -> 2, 5 -> 1, 1 -> 4, 9 -> 1, 3 -> 1, 6 -> 1)
println(xx.countByValue())
}

}
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  spark countByValue