HIVE数据表的导入导出
2017-08-09 16:38
246 查看
一、MYSQL与HIVE
mysql导入hivesqoop import --connect jdbc:mysql://IP:3306/dbname --username xxx --password xxx --table table1 --hive-import --hive-overwrite --create-hive-table --hive-table dbname.table1
hive导入mysql
Sqoop export --connect jdbc:mysql://127.0.0.1:3306/dbname --username mysql(mysql用户名) --password 123456(密码) --table student(mysql上的表) --hive-import --hive-overwrite --create-hive-table --hive-table student(hive上的表)
二、文件与HIVE
hive导出到文件1.1. hive>导出到本地
insert overwrite local directory ‘/home/username/a’
select * from dbname.table;
注1:当前用户必须对'/home/username/a'有读写权限。 注2:此方式文件分隔符默认为^A
1.2 命令行hive导出
hive -e “select * from dhtest.temp_uv” >> res1.csv:文件默认以\t作为分隔符,此方法适用于字段内容中不包含特殊字符\t
hive -e "select * from pms.pms_algorithm_desc" | sed 's/\t/,/g' > ./aaa.txt
文件导入hive
a.第一步
CREATE TABLE csv_table(a string, b string) ROW FORMAT SERDE 'org.apache.Hadoop.hive.serde2.OpenCSVSerde' WITH SERDEPROPERTIES ( "separatorChar" = "\t", "quoteChar" = "'", "escapeChar" = "\\") STORED AS TEXTFILE;
aratorChar:分隔符
quoteChar:引号符
escapeChar:转意符
或者
CREATE TABLE csv_table(a string, b string) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\001'; CREATE TABLE csv_table(a string, b string) ROW FORMAT DELIMITED FIELDS TERMINATED BY '^A';
b. 第二步
load data local inpath '/data/user1.csv' into table csv_table;
相关文章推荐
- Hive命令之三:hive的数据导入导出
- 将数据导入hive,将数据从hive导出
- 利用sqoop将hive数据导入导出数据到mysql
- Hive数据导入与导出
- Sqoop_详细总结 使用Sqoop将HDFS/Hive/HBase与MySQL/Oracle中的数据相互导入、导出
- Hive 实战(1)--hive数据导入/导出基础
- [Hadoop大数据]——Hive数据的导入导出
- hive学习笔记——Hive表中数据的导入和导出
- HIVE入门_3_数据导入导出
- Hive学习(二)-数据导入及导出
- hive数据导入导出
- Hive数据的导入和导出
- hive导入导出数据案例
- Sqoop数据迁移,工作机制,sqoop安装(配置),Sqoop的数据导入,导入表数据到HDFS,导入关系表到HIVE,导入到HDFS指定目录,导入表数据子集,按需导入,增量导入,sqoop数据导出
- Hive基础一(数据库,表,分区表,视图,导入导出数据)
- Sqoop_具体总结 使用Sqoop将HDFS/Hive/HBase与MySQL/Oracle中的数据相互导入、导出
- hive的数据导入与数据导出:(本地,云hdfs,hbase),列分隔符的设置,以及hdfs上传给pig如何处理
- Mysql & Hive 导入导出数据
- Hive常用操作之数据导入导出
- 使用Sqoop将HDFS/Hive/HBase与MySQL/Oracle中的数据相互导入、导出