基于spark实现表的join操作
2015-08-05 23:39
239 查看
1. 自连接
假设存在如下文件:[root@bluejoe0 ~]# cat categories.csv 1,生活用品,0 2,数码用品,1 3,手机,2 4,华为Mate7,3
每一行的格式为:类别ID,类别名称,父类ID
现在欲输出每个类别的父类别的名称,类似于SQL的自连接,注意到join的外键其实是父类ID。
首先生成“父类ID->子类ID,子类名称”
val categories=sc.textFile("/root/categories.csv") val left = categories.map(_.split(",")).map(x=>(x(2)->Map("id"->x(0),"name"->x(1))))
left的内容为:
Array((0,Map(id -> 1, name -> 生活用品)), (1,Map(id -> 2, name -> 数码用品)), (2,Map(id -> 3, name -> 手机)), (3,Map(id -> 4, name -> 华为Mate7)))
接着生成“父类ID->父类ID,父类名称”
val right = categories.map(_.split(",")).map(x=>(x(0)->Map("pid"->x(0),"pname"->x(1))))
right的内容为:
Array((1,Map(pid -> 1, pname -> 生活用品)), (2,Map(pid -> 2, pname -> 数码用品)), (3,Map(pid -> 3, pname -> 手机)), (4,Map(pid -> 4, pname -> 华为Mate7)))
接下来,将这两个RDD进行合并,并按照key(key都是父类ID)进行reduce:
val merged = (left++right).reduceByKey(_++_)
merged的内容为:
Array((4,Map(pid -> 4, pname -> 华为Mate7)), (0,Map(id -> 1, name -> 生活用品)), (1,Map(id -> 2, name -> 数码用品, pid -> 1, pname -> 生活用品)), (2,Map(id -> 3, name -> 手机, pid -> 2, pname -> 数码用品)), (3,Map(id -> 4, name -> 华为Mate7, pid -> 3, pname -> 手机)))
搞定!!
可以采用flatMap来简化以上的写法:
val merged = categories.map(_.split(",")).flatMap((x)=>Array(x(2)->Map("id"->x(0),"name"->x(1)), x(0)->Map("pid"->x(0),"pname"->x(1)))).reduceByKey(_++_)
结果是一样一样的!!当然代码的可读性大打折扣了~~~
2. 两张表连接
相关文章推荐
- NYOJ 975 关于521
- Maven的依赖范围
- 取(2堆)石子游戏(威佐夫博弈+hdu2177)
- AVL树——深入浅出,一目了然
- Android自定义Toast总结(上)
- POJ 1258 Agri-Net (prim)
- 快速搭建PHP+iis环境
- 8月4日所学
- IOS开发他山之石系列-安装Alcatraz
- hdu 5305 Friends (dfs)
- JavaWeb 过滤器
- Java 中的语法糖 (Syntactic Sugar)
- 双硬盘双系统,光驱位硬盘升级win10注意事项
- seajs使用-1 解决冲突和依赖
- poj2417 Discrete Logging(BSGS:Baby Step Giant Step)
- [ACdream]哗啦啦村的日常游戏(一)抓个球[概率DP][记忆化搜索]
- 块元素和内嵌元素
- 快速排序java实现
- 哈夫曼树讲解
- oracle数据库启动错误 SP2-1503:无法初始化oracle调用界面