Hdfs 导入Hive,时间相关的字段 导入后为NULL
2015-12-18 10:54
507 查看
[code]CREATE TABLE OFFER_${day_id} ( OFFER_ID BIGINT, ATOM_ACTION_ID BIGINT, PARTY_ID BIGINT, OFFER_SPEC_ID BIGINT, OFFER_NBR STRING, AREA_ID INT, MKT_ACTIVITY_ID BIGINT, START_DT STRING, END_DT STRING, BSS_START_DT STRING, BSS_END_DT STRING, BILL_START_DT STRING, BILL_END_DT STRING, STATUS_CD STRING, STATUS_DT STRING, CREATE_DT STRING, VERSION STRING, EXT_PROD_OFFER_INST_ID STRING, EXT_SYSTEM STRING ) ROW FORMAT DELIMITED FIELDS TERMINATED BY '' STORED AS TEXTFILE;
解决办法: 之前在Hive中创建表的时候,时间相关的字段建的是DATE类型,发现导入Hive后,DATE字段的值都是NULL。 后来都将DATE类型的字段调整成了STRING类型,经测试,时间相关的字段均可入hive。
相关文章推荐
- HDFS分布式文件系统资源管理器开发总结
- HDFS源码分析(二)-----元数据备份机制
- HDFS源码分析(六)-----租约
- HDFS源码分析(五)-----节点注册与心跳机制
- HDFS源码分析(四)-----节点Decommission机制
- HDFS源码分析(三)-----数据块关系基本结构
- HDFS数据资源使用量分析以及趋势预测
- hive 使用笔记(partition; HDFS乱码;日期函数)
- flume坑之channel.transactionCapacity和HdfsSink.batchSize
- HDFS数据流
- HDFS MapReduce笔记
- hdfs文件3个副本BLK的查找
- HDFS基本文件常用命令
- 【转】探寻从HDFS到Spark的高效数…
- Maven编译32位Hadoop2.7.1
- Hadoop 2.x属性修改
- Scala代码实现列出Hadoop 文件夹下面的所有文件
- 文件写入HDFS的流程
- 大数据测试之hadoop命令大全 2
- 大数据测试之hadoop命令大全 1