Sqoop官方文档翻译2
2015-12-29 00:00
537 查看
8. sqoop-import-all-tables
8.1. Purpose
import-all-tables命令导入一堆表格到HDFS,
每个表的数据存储在独立的HDFS目录里。
下列条件必须满足:
每个表必须有单列的主键
导入每个表的所有列
You must not intend to use non-default splitting column, nor impose any conditions via a WHERE clause.
8.2. Syntax
略8.3. Example Invocations
从corp数据库里导入所有表格:$ sqoop import-all-tables --connect jdbc:mysql://db.foo.com/corp
验证是否OK:
$ hadoop fs -ls
Found 4 items
drwxr-xr-x - someuser somegrp 0 2010-04-27 17:15 /user/someuser/EMPLOYEES
drwxr-xr-x - someuser somegrp 0 2010-04-27 17:15 /user/someuser/PAYCHECKS
drwxr-xr-x - someuser somegrp 0 2010-04-27 17:15 /user/someuser/DEPARTMENTS
drwxr-xr-x - someuser somegrp 0 2010-04-27 17:15 /user/someuser/OFFICE_SUPPLIES
相关文章推荐
- sqoop 中文文档 User guide 一
- sqoop 中文文档 User guide 二 import
- sqoop 中文文档 User guide 二 import续
- sqoop 中文文档 User guide 三 export
- sqoop 中文文档 User guide 四 validation
- sqoop 中文文档 User guide 五 job,metastore,merge,codegen
- sqoop 中文文档 User guide 六
- sqoop 中文文档 User guide 七
- sqoop 使用小计
- sqoop 从mysql数据库导入到hive表格错误解决方法
- Sqoop
- sqoop 导出 hive分区表 数据到 mysql
- sqoop 安装配置(Hadoop2.4 + hive0.13)
- Sqoop2简单命令(linux)
- sqoop安装(linux)
- [奥莱理] Apache Sqoop Cookbook-读书笔记
- Hadoop2.2.0 HA高可用分布式集群搭建(hbase,hive,sqoop,spark)
- sqoop--mysql与hdfs数据互导
- sqoop--oracle与hdfs互导
- sqoop安装