您的位置:首页 > 编程语言 > Java开发

eclipse编写scala应用运行在spark集群上

2017-03-06 22:36 232 查看
代码

package spark_1
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
class WorkCountTest {
//自定义函数
def jiSuan(){

//数据文件路径
var loadFile="hdfs://服务器ip:8020/tmp/dataTest/Z";
  //初始化sparkContext
var conf=new SparkConf();
conf.setAppName("workCountZhangxs");
conf.setMaster("spark://服务器ip:7077")
var sc=new SparkContext(conf);
//从hdfs上读取文件
var fileRdd=sc.textFile(loadFile, 2);
//过滤出包含执行的字符("yao")
var countRdd=fileRdd.filter(line=>line.contains("yao"));
//计算出count
var countF=countRdd.count();
println(countF)
sc.stop();
}
}
object mainA{
def main(args: Array[String]) {
  //初始化类
var t=new WorkCountTest();
  //调用计算函数
t.jiSuan();

}
}


输出结果

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: