手动新建hive编程环境(以hive-1.0.0和hive-1.2.1为例)
2017-03-16 17:02
211 查看
如下,是用maven构建项目,本篇博文重点不是这个。初学者(小白)变成小鸟后,建议开始用maven啦!
第一步:
第二步:这里,你要么可以跟我这样,直接选择Map/Reduce project(这里可以直接把hadoop所有jar包导入,因为编程中你还是要用到hdfs啦。)
第三步:给你的Hive项目取名。
第四步:
第五步:得到
第六步:编个入门程序
运行之后,得到
Eclipse下Maven新建项目、自动打依赖jar包(包含普通项目和Web项目)
HBase 开发环境搭建(Eclipse\MyEclipse + Maven)
MapReduce 开发环境搭建(Eclipse\MyEclipse + Maven)
Hadoop项目开发环境搭建(Eclipse\MyEclipse + Maven)
Hive项目开发环境搭建(Eclipse\MyEclipse + Maven)
对于初学者,比如在Eclipse/MyEclipse里,手动构建hive项目来编程。怎么做呢?如下第一步:
第二步:这里,你要么可以跟我这样,直接选择Map/Reduce project(这里可以直接把hadoop所有jar包导入,因为编程中你还是要用到hdfs啦。)
第三步:给你的Hive项目取名。
第四步:
第五步:得到
第六步:编个入门程序
[b]Demo.java[/b]
package com.dajangtai.Hive; import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.SQLException; import java.sql.Statement; public class Demo { private static String driverName = "org.apache.hive.jdbc.HiveDriver";//hive驱动名称 private static String url = "jdbc:hive2://djt002:10000/default";//连接hive2服务的连接地址,Hive0.11.0以上版本提供了一个全新的服务:HiveServer2 private static String user = "hadoop";//对HDFS有操作权限的用户 private static String password = "";//在非安全模式下,指定一个用户运行查询,忽略密码 private static String sql = ""; private static ResultSet res; public static void main(String[] args) { try { Class.forName(driverName);//加载HiveServer2驱动程序 Connection conn = DriverManager.getConnection(url, user, password);//根据URL连接指定的数据库 Statement stmt = conn.createStatement(); //创建的表名 String tableName = "testHiveDriverTable"; /** 第一步:表存在就先删除 **/ sql = "drop table " + tableName; stmt.execute(sql); /** 第二步:表不存在就创建 **/ sql = "create table " + tableName + " (key int, value string) row format delimited fields terminated by '\t' STORED AS TEXTFILE"; stmt.execute(sql); // 执行“show tables”操作 sql = "show tables '" + tableName + "'"; res = stmt.executeQuery(sql); if (res.next()) { System.out.println(res.getString(1)); } // 执行“describe table”操作 sql = "describe " + tableName; res = stmt.executeQuery(sql); while (res.next()) { System.out.println(res.getString(1) + "\t" + res.getString(2)); } // 执行“load data into table”操作 String filepath = "/usr/local/data/djt.txt";//hive服务所在节点的本地文件路径 sql = "load data local inpath '" + filepath + "' into table " + tableName; stmt.execute(sql); // 执行“select * query”操作 sql = "select * from " + tableName; res = stmt.executeQuery(sql); while (res.next()) { System.out.println(res.getInt(1) + "\t" + res.getString(2)); } // 执行“regular hive query”操作,此查询会转换为MapReduce程序来处理 sql = "select count(*) from " + tableName; res = stmt.executeQuery(sql); while (res.next()) { System.out.println(res.getString(1)); } conn.close(); conn = null; } catch (ClassNotFoundException e) { e.printStackTrace(); System.exit(1); } catch (SQLException e) { e.printStackTrace(); System.exit(1); } } }
运行之后,得到
2 hive的使用 + hive的常用语法
相关文章推荐
- 再谈hive-1.0.0与hive-1.2.1到JDBC编程忽略细节问题
- Ubuntu环境下手动配置Hadoop1.2.1
- hive1.0.0-1.2.1版本升级及升级中遇到bug
- hadoop1.2.1 C 编程环境配置
- CentOS64位6.4下Hadoop2.7.1、Mysql5.5.46、Hive1.2.1、Spark1.5.0的集群环境部署
- Hadoop-2.7.2&Hbase-1.2.2&Hive1.2.1(远程模式)&zookeeper-3.4.8全分布式环境搭建
- [置顶] hive 单节点环境搭建指南 1.2.1版本
- 集群环境下Hadoop2.5.2+Zookeeper3.4.6+Hbase0.98+Hive1.0.0安装目录总汇
- 手动搭建PHP环境之新建站点
- 从零开始学习音视频编程技术(三) 开发环境搭建(Qt4.86手动设置环境,主要就是设置g++和qmake,比较透彻,附下载链接)
- zeppelin-0.5.6+Hadoop-2.5.2+Hive-1.2.1环境构筑及测试
- 大数据学习环境搭建(CentOS6.9+Hadoop2.7.3+Hive1.2.1+Hbase1.3.1+Spark2.1.1)
- 在伪分布hadoop-1.2.1环境下配置hive-0.12.0
- presto-0.147+postgresql-9.5.3+msql-5.0.7+hadoop-2.5.2+hive-1.2.1环境构筑以及测试
- JAVA应用程序设计和开发环境-JDBC编程(转)
- Bash基本编程中的环境变量
- Symbian游戏编程入门 (二)开发环境入门
- Win32环境下动态链接库(DLL)编程原理
- unix环境高级编程(信号)
- Unix/Linux环境下的Socket编程