您的位置:首页 > 运维架构 > Shell

在Spark 1.2.0的spark-shell中进行Hive数据库的操作

2016-01-18 17:55 429 查看
【环境配置】

Hive: 0.13.1

Spark: 1.2.0

Spark和Hive都是伪分布式安装的

网上有一些教程,但或者Spark版本不同,或者不够全面。其实总结起来只有三步,如下:

(1)打开spark-shell

spark-shell

(2)建立HiveContext对象

val hiveContext = new org.apache.spark.sql.hive.HiveContext(sc)

(3)进行Hive操作

hiveContext.sql("show tables").take(10)   //取前十个表看看

hiveContext.sql("from ewaplog select key, value").collect().foreach(println)
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: