搭建sparksql的hive测试环境
2016-03-31 15:59
597 查看
sbt依赖
name := "Pi" version := "1.0" scalaVersion := "2.10.6" libraryDependencies++= Seq( "org.apache.spark" %% "spark-core" % "1.5.2", "org.apache.spark" % "spark-hive_2.10" % "1.5.2", "joda-time" % "joda-time" % "2.9.2" ) resolvers+="OS China" at "http://maven.oschina.net/content/groups/public/"
import org.apache.spark._ import org.apache.spark.sql.SQLContext import org.apache.spark.sql.hive.HiveContext /** * Created by code-pc on 16/3/14. */ object Pi { def main(args: Array[String]) { val conf = new SparkConf().setMaster("local[5]").setAppName("AndrzejApp") val sc=new SparkContext(conf) val hqlc=new HiveContext(sc) val st=hqlc.sql("show tables") println("hello") st.collect().foreach(println) } }
相关文章推荐
- Redis学习:如何跳出SQL这个坑
- 根据并发访问量级来演变Mysql架构
- JFinal学习--06操作数据库
- 数据库的备份和恢复
- 火狐浏览器sqlite插件
- Sql Server数据库对象访问权限控制
- C#获取MySql 数据常用的代码
- sqlserver里面的row_number分页问题
- mysql悲观锁总结和实践
- mysql读写分离
- 获取SQL Server的安装时间
- mysql使用循环生成测试数据
- redis与mysql数据同步
- MYSQL 分组合并函数
- Oracle 并行查询
- MySQL中一些常用的数据表操作语句笔记
- 数据库索引的实现原理二
- Mongodb索引实战
- 数据库索引工作原理
- NoSQL——Redis初相见