Hive 学习笔记(一)Hive简介
2013-09-18 10:01
323 查看
Apache Hive
Hive 是基于Hadoop平台下的一个数据仓库工具,它能用于数据集成、ad-hoc queries、大数据分析. 它的本质就是将类似于熟悉的SQL的语句转换为MapReduce程序, 这种语句叫HiveQL.Apache HiveTM 有以下特点:
它提供了一个易用的ETL工具
它提供多样数据格式的转换机制
它能直接在 Apache HDFSTM中存取数据,也可以对数据存储系统进行存取,比如Apache HBaseTM
它就是通过查询自动的转换为了MR。
同时,这个语言也允许熟悉 MapReduce 开发者的开发自定义的 mapper 和 reducer 来处理内建的 mapper 和 reducer 无法完成的复杂的分析工作。Hive 的设计不是用于在线事物处理,也不提供实时查询或低层次更新.他最适用于不可变的大数据集的批量任务 (like web logs).
Hive的基本构架
Hive 的结构可以分为以下几部分:
用户接口:包括 CLI, Client, WUI
元数据存储。通常是存储在关系数据库如 mysql, derby 中
解释器、编译器、优化器、执行器
Hadoop:用 HDFS 进行存储,利用MapReduce 进行计算
1、 用户接口主要有三个:CLI,Client和 WUI。其中最常用的是 CLI,Cli 启动的时候,会同时启动一个 Hive 副本。Client 是 Hive 的客户端,用户连接至 Hive Server。在启动 Client 模式的时候,需要指出 Hive Server 所在节点,并且在该节点启动 Hive Server。 WUI 是通过浏览器访问 Hive。
2、 Hive 将元数据存储在数据库中,如 mysql、derby。Hive 中的元数据包括表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。
3、 解释器、编译器、优化器完成 HQL 查询语句从词法分析、语法分析、编译、优化以及查询计划的生成。生成的查询计划存储在 HDFS 中,并在随后有 MapReduce 调用执行。
4、Hive 的数据存储在 HDFS 中,大部分的查询由 MapReduce 完成(包含 * 的查询,比如 select * from tbl 不会生成 MapRedcue 任务)。
相关文章推荐
- Hadoop学习笔记(三):Hive简介
- Hadoop学习笔记(三):Hive简介
- STM32学习笔记之芯片简介
- docker学习笔记1-docker简介
- jni学习笔记之一:jni简介
- 学习笔记(一)Android 的简介
- Go语言学习笔记 - 简介
- 黑马程序员——Swift学习笔记:简介与交互环境
- JAVA学习笔记35——泛型1:泛型的简介以及使用
- 深度学习笔记-简介
- dwr学习笔记(简介)
- Hive学习笔记 --- 深入理解 HIVE 个各种存储模式
- 应用统计学与R语言实现学习笔记(一)——简介
- Docker学习笔记 - Docker的简介
- Javascript学习笔记2.1 Javascript与DOM简介
- Struts2学习笔记一 简介及入门程序
- Linux学习笔记--1.简介
- Hibernate视频学习笔记(1)主要接口简介及示例
- Android开发学习笔记:Intent的简介以及属性的详解
- hive学习笔记1:hive使用基本命令