服务提供网站,江苏建科建筑培训网,标志设计网站推荐,七牛云cdn wordpresshive 的 表与hdfs数据关系映射放在元数据库中#xff0c;也就是mysql中#xff0c;而真正的数据放在 hdfs中#xff0c;通过mysql中表 #xff0c;字段等与hdfs上数据的映射来查询 1.hive是基于Hadoop的一个数据仓库工具#xff0c;可以将结构化的数据文件映射为一张数据库… hive 的 表与hdfs数据关系映射放在元数据库中也就是mysql中而真正的数据放在 hdfs中通过mysql中表 字段等与hdfs上数据的映射来查询 1.hive是基于Hadoop的一个数据仓库工具可以将结构化的数据文件映射为一张数据库表并提供完整的sql查询功能可以将sql语句转换为MapReduce任务进行运行。其优点是学习成本低可以通过类SQL语句快速实现简单的MapReduce统计不必开发专门的MapReduce应用十分适合数据仓库的统计分析。 2.Hive是建立在 Hadoop 上的数据仓库基础构架。它提供了一系列的工具可以用来进行数据提取转化加载ETL这是一种可以存储、查询和分析存储在 Hadoop 中的大规模数据的机制。Hive 定义了简单的类 SQL 查询语言称为 HQL它允许熟悉 SQL 的用户查询数据。同时这个语言也允许熟悉 MapReduce 开发者的开发自定义的 mapper 和 reducer 来处理内建的 mapper 和 reducer 无法完成的复杂的分析工作。 要理解hive必须先理解hadoop和mapreduce如果有不熟悉的童鞋可以百度一下。 使用hive的命令行接口感觉很像操作关系数据库但是hive和关系数据库还是有很大的不同下面我就比较下hive与关系数据库的区别具体如下 hive和关系数据库存储文件的系统不同hive使用的是hadoop的HDFShadoop的分布式文件系统关系数据库则是服务器本地的文件系统hive使用的计算模型是mapreduce而关系数据库则是自己设计的计算模型关系数据库都是为实时查询的业务进行设计的而hive则是为海量数据做数据挖掘设计的实时性很差实时性的区别导致hive的应用场景和关系数据库有很大的不同Hive很容易扩展自己的存储能力和计算能力这个是继承hadoop的而关系数据库在这个方面要比数据库差很多。 以上都是从宏观的角度比较hive和关系数据库的区别hive和关系数据库的异同还有很多我在文章的后面会一一描述。 下面我来讲讲hive的技术架构大家先看下面的架构图 由上图可知hadoop和mapreduce是hive架构的根基。Hive架构包括如下组件CLIcommand line interface、JDBC/ODBC、Thrift Server、WEB GUI、metastore和Driver(Complier、Optimizer和Executor)这些组件我可以分为两大类服务端组件和客户端组件。 首先讲讲服务端组件 Driver组件该组件包括Complier、Optimizer和Executor它的作用是将我们写的HiveQL类SQL语句进行解析、编译优化生成执行计划然后调用底层的mapreduce计算框架。 Metastore组件元数据服务组件这个组件存储hive的元数据hive的元数据存储在关系数据库里hive支持的关系数据库有derby、mysql。元数据对于hive十分重要因此hive支持把metastore服务独立出来安装到远程的服务器集群里从而解耦hive服务和metastore服务保证hive运行的健壮性这个方面的知识我会在后面的metastore小节里做详细的讲解。 Thrift服务thrift是facebook开发的一个软件框架它用来进行可扩展且跨语言的服务的开发hive集成了该服务能让不同的编程语言调用hive的接口。 客户端组件 CLIcommand line interface命令行接口。 Thrift客户端上面的架构图里没有写上Thrift客户端但是hive架构的许多客户端接口是建立在thrift客户端之上包括JDBC和ODBC接口。 WEBGUIhive客户端提供了一种通过网页的方式访问hive所提供的服务。这个接口对应hive的hwi组件hive web interface使用前要启动hwi服务。 下面我着重讲讲metastore组件,具体如下 Hive的metastore组件是hive元数据集中存放地。Metastore组件包括两个部分metastore服务和后台数据的存储。后台数据存储的介质就是关系数据库例如hive默认的嵌入式磁盘数据库derby还有mysql数据库。Metastore服务是建立在后台数据存储介质之上并且可以和hive服务进行交互的服务组件默认情况下metastore服务和hive服务是安装在一起的运行在同一个进程当中。我也可以把metastore服务从hive服务里剥离出来metastore独立安装在一个集群里hive远程调用metastore服务这样我们可以把元数据这一层放到防火墙之后客户端访问hive服务就可以连接到元数据这一层从而提供了更好的管理性和安全保障。使用远程的metastore服务可以让metastore服务和hive服务运行在不同的进程里这样也保证了hive的稳定性提升了hive服务的效率。 Hive的执行流程如下图所示 图描述的很清晰了我这里就不在累述了。 下面我给大家展示一个简单的例子看看hive是怎么操作的。 首先我们创建一个普通的文本文件里面只有一行数据该行也只存储一个字符串命令如下 echo ‘sharpxiajun’ /home/hadoop/test.txt 然后我们建一张hive的表 hive –e “create table test (value string); 接下来加载数据 Load data local inpath ‘home/hadoop/test.txt’ overwrite into table test 最后我们查询下表 hive –e ‘select *from test’; 大家看到了吧hive十分简单,很好入门操作和sql很像下面我就要深入分析下hive与关系数据库的区别这部分可能有些人看的不是很明白但是很有必要提前提出以后我的文章里将进一步讲述hive那时不太明白的童鞋在看看这部分很多问题就会清晰很多具体如下 关系数据库里表的加载模式是在数据加载时候强制确定的表的加载模式是指数据库存储数据的文件格式如果加载数据时候发现加载的数据不符合模式关系数据库则会拒绝加载数据这个就叫“写时模式”写时模式会在数据加载时候对数据模式进行检查校验的操作。Hive在加载数据时候和关系数据库不同hive在加载数据时候不会对数据进行检查也不会更改被加载的数据文件而检查数据格式的操作是在查询操作时候执行这种模式叫“读时模式”。在实际应用中写时模式在加载数据时候会对列进行索引对数据进行压缩因此加载数据的速度很慢但是当数据加载好了我们去查询数据的时候速度很快。但是当我们的数据是非结构化存储模式也是未知时候关系数据操作这种场景就麻烦多了这时候hive就会发挥它的优势。关系数据库一个重要的特点是可以对某一行或某些行的数据进行更新、删除操作hive不支持对某个具体行的操作hive对数据的操作只支持覆盖原数据和追加数据。Hive也不支持事务和索引。更新、事务和索引都是关系数据库的特征这些hive都不支持也不打算支持原因是hive的设计是海量数据进行处理全数据的扫描时常态针对某些具体数据进行操作的效率是很差的对于更新操作hive是通过查询将原表的数据进行转化最后存储在新表里这和传统数据库的更新操作有很大不同。Hive也可以在hadoop做实时查询上做一份自己的贡献那就是和hbase集成hbase可以进行快速查询但是hbase不支持类SQL的语句那么此时hive可以给hbase提供sql语法解析的外壳可以用类sql语句操作hbase数据库。 HIVE元数据表数据字典 表名 说明 BUCKETING_COLS Hive表CLUSTERED BY字段信息(字段名字段序号) COLUMNS Hive表字段信息(字段注释字段名字段类型字段序号) DBS NUCLEUS_TABLES 元数据表和hive中class类的对应关系 PARTITIONS Hive表分区信息(创建时间具体的分区) PARTITION_KEYS Hive分区表分区键(名称类型comment序号) PARTITION_KEY_VALS Hive表分区名(键值序号) PARTITION_PARAMS SDS 所有hive表、表分区所对应的hdfs数据目录和数据格式 SD_PARAMS SEQUENCE_TABLE Hive对象的下一个可用ID SERDES Hive表序列化反序列化使用的类库信息 SERDE_PARAMS 序列化反序列化信息如行分隔符、列分隔符、NULL的表示字符等 SORT_COLS Hive表SORTED BY字段信息(字段名sort类型字段序号) TABLE_PARAMS 表级属性如是否外部表表注释等 TBLS 所有hive表的基本信息 Hive的几种常见的数据导入方式这里介绍四种1、从本地文件系统中导入数据到Hive表2、从HDFS上导入数据到Hive表3、从别的表中查询出相应的数据并导入到Hive表中4、在创建表的时候通过从别的表中查询出相应的记录并插入到所创建的表中。 一、从本地文件系统中导入数据到Hive表 先在Hive里面创建好表如下 hive create table wyp (id int, name string, age int, tel string) ROW FORMAT DELIMITED FIELDS TERMINATED BY \t STORED AS TEXTFILE; OK Time taken: 2.832 seconds 复制代码 这个表很简单只有四个字段具体含义我就不解释了。本地文件系统里面有个/home/wyp/wyp.txt文件内容如下 [wypmaster ~]$ cat wyp.txt 1 wyp 25 13188888888888 2 test 30 13888888888888 3 zs 34 899314121 复制代码 wyp.txt文件中的数据列之间是使用\t分割的可以通过下面的语句将这个文件里面的数据导入到wyp表里面操作如下 hive load data local inpath wyp.txt into table wyp; Copying data from file:/home/wyp/wyp.txt Copying file: file:/home/wyp/wyp.txt Loading data to table default.wyp Table default.wyp stats: [num_partitions: 0, num_files: 1, num_rows: 0, total_size: 67] OK Time taken: 5.967 seconds 复制代码 这样就将wyp.txt里面的内容导入到wyp表里面去了可以到wyp表的数据目录下查看如下命令 hive dfs -ls /user/hive/warehouse/wyp ; Found 1 items -rw-r--r--3 wyp supergroup 67 2014-02-19 18:23 /hive/warehouse/wyp/wyp.txt 复制代码 需要注意的是和我们熟悉的关系型数据库不一样Hive现在还不支持在insert语句里面直接给出一组记录的文字形式也就是说Hive并不支持INSERT INTO …. VALUES形式的语句。 二、HDFS上导入数据到Hive表 从本地文件系统中将数据导入到Hive表的过程中其实是先将数据临时复制到HDFS的一个目录下典型的情况是复制到上传用户的HDFS home目录下,比如/home/wyp/然后再将数据从那个临时目录下移动注意这里说的是移动不是复制到对应的Hive表的数据目录里面。既然如此那么Hive肯定支持将数据直接从HDFS上的一个目录移动到相应Hive表的数据目录下假设有下面这个文件/home/wyp/add.txt具体的操作如下 [wypmaster /home/q/hadoop-2.2.0]$ bin/hadoop fs -cat /home/wyp/add.txt 5 wyp1 23 131212121212 6 wyp2 24 134535353535 7 wyp3 25 132453535353 8 wyp4 26 154243434355 复制代码 上面是需要插入数据的内容这个文件是存放在HDFS上/home/wyp目录和一中提到的不同一中提到的文件是存放在本地文件系统上里面我们可以通过下面的命令将这个文件里面的内容导入到Hive表中具体操作如下 hive load data inpath /home/wyp/add.txt into table wyp; Loading data to table default.wyp Table default.wyp stats: [num_partitions: 0, num_files: 2, num_rows: 0, total_size: 215] OK Time taken: 0.47 seconds hive select * from wyp; OK 5 wyp1 23 131212121212 6 wyp2 24 134535353535 7 wyp3 25 132453535353 8 wyp4 26 154243434355 1 wyp 25 13188888888888 2 test 30 13888888888888 3 zs 34 899314121 Time taken: 0.096 seconds, Fetched: 7 row(s) 复制代码 从上面的执行结果我们可以看到数据的确导入到wyp表中了请注意load data inpath ‘/home/wyp/add.txt’ into table wyp;里面是没有local这个单词的这个是和一中的区别。 三、从别的表中查询出相应的数据并导入到Hive表中 假设Hive中有test表其建表语句如下所示 hive create table test( id int, name string ,tel string) partitioned by (age int) ROW FORMAT DELIMITED FIELDS TERMINATED BY \t STORED AS TEXTFILE; OK Time taken: 0.261 seconds 复制代码 大体和wyp表的建表语句类似只不过test表里面用age作为了分区字段。对于分区这里在做解释一下 分区在Hive中表的每一个分区对应表下的相应目录所有分区的数据都是存储在对应的目录中。比如wyp表有dt和city两个分区则对应dt20131218,cityBJ对应表的目录为/user/hive/warehouse/dt20131218/cityBJ所有属于这个分区的数据都存放在这个目录中。 下面语句就是将wyp表中的查询结果并插入到test表中 hive insert into table test partition (age25) select id, name, tel from wyp; ##################################################################### 这里输出了一堆Mapreduce任务信息这里省略 ##################################################################### Total MapReduce CPU Time Spent: 1 seconds 310 msec OK Time taken: 19.125 seconds hive select * from test; OK 5 wyp1 131212121212 25 6 wyp2 134535353535 25 7 wyp3 132453535353 25 8 wyp4 154243434355 25 1 wyp 13188888888888 25 2 test 13888888888888 25 3 zs 899314121 25 Time taken: 0.126 seconds, Fetched: 7 row(s) 复制代码 这里做一下说明 我们知道我们传统数据块的形式insert into table values字段1字段2这种形式hive是不支持的。 通过上面的输出我们可以看到从wyp表中查询出来的东西已经成功插入到test表中去了如果目标表test中不存在分区字段可以去掉partition (age’25′)语句。当然我们也可以在select语句里面通过使用分区值来动态指明分区 hive set hive.exec.dynamic.partition.modenonstrict; hive insert into table test partition (age) select id, name, tel, age from wyp; ##################################################################### 这里输出了一堆Mapreduce任务信息这里省略 ##################################################################### Total MapReduce CPU Time Spent: 1 seconds 510 msec OK Time taken: 17.712 seconds hive select * from test; OK 5 wyp1 131212121212 23 6 wyp2 134535353535 24 7 wyp3 132453535353 25 1 wyp 13188888888888 25 8 wyp4 154243434355 26 2 test 13888888888888 30 3 zs 899314121 34 Time taken: 0.399 seconds, Fetched: 7 row(s) 复制代码 这种方法叫做动态分区插入但是Hive中默认是关闭的所以在使用前需要先把hive.exec.dynamic.partition.mode设置为nonstrict。当然Hive也支持insert overwrite方式来插入数据从字面我们就可以看出overwrite是覆盖的意思是的执行完这条语句的时候相应数据目录下的数据将会被覆盖而insert into则不会注意两者之间的区别。例子如下 hive insert overwrite table test PARTITION (age) select id, name, tel, age from wyp; 复制代码 更可喜的是Hive还支持多表插入什么意思呢在Hive中我们可以把insert语句倒过来把from放在最前面它的执行效果和放在后面是一样的如下 hive show create table test3; OK CREATE TABLE test3( id int, name string) Time taken: 0.277 seconds, Fetched: 18 row(s) hive from wyp insert into table test partition(age) select id, name, tel, age insert into table test3 select id, name where age25; hive select * from test3; OK 8 wyp4 2 test 3 zs Time taken: 4.308 seconds, Fetched: 3 row(s) 复制代码 可以在同一个查询中使用多个insert子句这样的好处是我们只需要扫描一遍源表就可以生成多个不相交的输出。这个很酷吧 四、在创建表的时候通过从别的表中查询出相应的记录并插入到所创建的表中 在实际情况中表的输出结果可能太多不适于显示在控制台上这时候将Hive的查询输出结果直接存在一个新的表中是非常方便的我们称这种情况为CTAScreate table .. as select如下 hive create table test4 as select id, name, tel from wyp; hive select * from test4; OK 5 wyp1 131212121212 6 wyp2 134535353535 7 wyp3 132453535353 8 wyp4 154243434355 1 wyp 13188888888888 2 test 13888888888888 3 zs 899314121 Time taken: 0.089 seconds, Fetched: 7 row(s) 复制代码