您的位置:首页 > 产品设计 > UI/UE

hive sequencefile 和rcfile 效率对比

2012-09-17 17:32 435 查看
源数据放在test1表中,大小 26413896039 Byte。

创建sequencefile 压缩表test2,使用insert overwrite table test2 select ...语句将test1数据导入 test2 ,设置配置项:

set hive.exec.compress.output=true;

set mapred.output.compress=true;

set mapred.output.compression.codec=com.hadoop.compression.lzo.LzoCodec;

SET io.seqfile.compression.type=BLOCK;

set io.compression.codecs=com.hadoop.compression.lzo.LzoCodec;

导入耗时:98.528s。另压缩类型使用默认的record,耗时为418.936s。

创建rcfile 表test3 ,同样方式导入test3。

set hive.exec.compress.output=true;

set mapred.output.compress=true;

set mapred.output.compression.codec=com.hadoop.compression.lzo.LzoCodec;

set io.compression.codecs=com.hadoop.compression.lzo.LzoCodec;

导入耗时 253.876s。

以下为其他统计数据对比:



rows类型合并耗时文件数总数据大小count(1)基于domain、referer求点击的top100
238610458原始数据11342641389603966.297s
238610458seq98.528(block) 418.936(record)11343225297382641.578394.949s(读入数据:32,253,519,280,读入行数:238610458)
238610458rcfile253.876 s15376548178129.318286.588s(读入数据:1,358,993,读入行数:238610458
因为原始数据中均是小文件,所以合并后文件数大量减少,但是hive实现的seqfile 处理竟然还是原来的数目。rcfile 使用lzo 压缩效果明显,7倍的压缩比率。查询数据中读入数据因为这里这涉及小部分数据,所以rcfile的表读入数据仅是seqfile的4%.而读入行数一致。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐