您的位置:首页 > 其它

001Spark文件分析测试

2015-09-02 08:42 302 查看
使用spark-1.4.1-bin-hadoop2.6进行处理,测试文件大小为3G,
测试结果:
1:统计一个文件中某个字符的个数
scala> sc.textFile("/home/y/my_temp/1.txt").filter(line=>line.contains("ok")).count()
scala> sc.textFile("/home/y/my_temp/1.txt").

用时:Duration    13 s
记录条数:res5: Long = 101824020

2:统计行数
scala> sc.textFile("/home/y/my_temp/1.txt").count()

用时:Duration    12 s
记录条数:res2: Long = 10
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: