网站首页 > 技术文章 正文
1. Hive 分桶表操作
1.1 数据分桶的定义
分桶是相对分区进行更细粒度的划分。
分桶将整个 hive 表数据内容按照某列属性值的 hash 值进行分区,通过分区将这些表数据划分到多个文件中进行存储。
其实桶的概念就是 MapReduce 分区的概念。物理上每个桶就是目录里的一个文件,一个任务作业产生的桶(即:输出文件)数量和设置的 reduce 任务个数相等。
假设有 hive 表:test_student,按照其字段 s_id 属性分为 3 个桶,那么就是对 s_id 属性值的 hash 值对 3 取模,按照取模结果对数据分桶。如取模结果为 0 的数据记录存放到一个文件,取模为 1 的数据存放到一个文件,取模为 2 的数据存放到一个文件。
1.2 数据分桶的意义
- 在处理大规模数据集时,在开发和修改查询阶段,可以使用整个数据集的一部分进行抽样测试查询、修改,提高开发效率;
- 解决单个表文件数据量过大的问题;
- 分桶表数据进行抽样和 JOIN 时可以提高 MapReduce 程序效率;
1.3 实现分桶的步骤
1.3.1 分桶表功能开启
打开 hive 客户端,在 hive 命令行执行以下命令来开启分桶表功能
#开启分桶表的功能
set hive.enforce.bucketing=true;
1.3.2 设置 Reduce 个数
#设置reduce的个数为3
set mapreduce.job.reduces=3;
1.3.3 创建分桶表
create table student_courses (c_id string, c_name string, t_id string, t_name string)clustered by(c_id) into 3 buckets row format delimited fields terminated by '\t';
创建分桶表的关键字为:clustered by,来指定表已存在的列名,注意此处指定的列名 c_id 不需要指定其类型,因为是表 student_courses 存在的字段 c_id,已指定其类型为string,因此在分桶时只需指定字段名即可。
指定数字 3 buckets 表示为分 3 个桶,其他关键字与分区表创建含义一致。
1.4 分桶表加载数据
因为分桶表加载数据底层走的是 MapReduce 任务,所以之前讲到过的分区表的加载数据方式:hdfs dfs -put file... 和 load data[local] inpath...均不适用于分桶表的数据加载,因此只能通过 insert overwrite 的方式来加载数据。
具体分为以下三个步骤:
1.4.1 创建普通表
create table tem_student_courses(c_id string, c_name string, t_id string, t_name string)row format delimited fields terminated by '\t';
1.4.2 普通表加载数据
load data local inpath '/user/your_directory_file/student_course.csv' into table tem_student_courses;
此处本地文件 2_test.csv 的内容如下:
1.4.3 分桶表加载数据
#分桶表从普通表中加载数据
insert overwrite table student_courses select * from tem_student_courses cluster by(c_id);
1.4.4 查看桶信息
#查看分桶表的桶信息
hive> dfs -ls /user/hive/warehouse_uat/test.db/student_courses;
从图中可以看出,在 hdfs 里分桶表 student_courses 内容被分成 3 个文件存储,说明分桶成功。
1.4.5 查看分桶数据
#查看分桶表里分桶的数据
hive> select * from student_courses tablesample(bucket 1 out of 3 on c_id);
指定关键字:tablesample
2. Hive 分区表与分桶表的异同点
相同点
1. 分区和分桶都是对数据进行更细粒度的处理,便于数据的管理和开发效率的提升。
2. 都有固定且特有的关键字用于指定是否是分区表或分桶表。
不同点
1.表现形式
分区表:是指按照数据表的某列或某些列分为多个区,形式上可以理解为文件夹,可以是一级文件夹,也可以是多级文件夹,类似于目录。
分桶表:是相对分区进行更细粒度的划分,形式上可以理解为将一个文件的内容按照规则划分成多个文件进行存储,类似于文件。
2.关键字
分区表:使用关键字 partitioned by 标记,指定的分区字段名为:伪列(非表中定义的字段),同时需要指定伪列的字段类型。
分桶表:使用关键字 clustered by 标记,指定的分桶字段名为:真实字段(表中已定义的字段),但不需要指定分桶字段的类型,因为在表定义时字段已指定类型。
但是需要指定桶的个数。
3.数量上
分区表:分区个数创建后后续可以依据需求动态增加
分桶表:桶的个数一旦指定,不能再增加
4.作用上
- 分区避免全表扫描,根据 where 条件指定分区列来查询指定目录提高查询速度;
- 分桶保存分桶查询结果的分桶结构(因为数据已经按照分桶字段进行了 hash 散列);
- 分桶表数据进行抽样和 join 时可以提高 MapReduce 程序效率;
猜你喜欢
- 2024-10-17 hive中json字符串解析之get_json_object与json_tuple
- 2024-10-17 hive学习笔记之三:内部表和外部表
- 2024-10-17 精选Hive高频面试题11道,附答案详细解析
- 2024-10-17 分享7个Flutter开发库,让你成为高效开发者
- 2024-10-17 看完这一篇数据仓库干货,终于搞懂什么是hive了
- 2024-10-17 Hive架构及Hive SQL的执行流程解读
- 2024-10-17 hadoop上搭建hive hadoop+hive
- 2024-10-17 HIVE常用函数大全 hive用法
- 2024-10-17 求求你别再手动部署jar包了,太low了
- 2024-10-17 hive 多字段分隔符使用 hive分隔符\001
你 发表评论:
欢迎- 11-19零基础学习!数据分析分类模型「支持向量机」
- 11-19机器学习 | 算法笔记(三)- 支持向量机算法以及代码实现
- 11-19我以前一直没有真正理解支持向量机,直到我画了一张图
- 11-19研一小姑娘分享机器学习之SVM支持向量机
- 11-19[机器学习] sklearn支持向量机
- 11-19支持向量机
- 11-19初探支持向量机:用大白话解释、原理详解、Python实现
- 11-19支持向量机的核函数
- 最近发表
- 标签列表
-
- oraclesql优化 (66)
- 类的加载机制 (75)
- feignclient (62)
- 一致性hash算法 (71)
- dockfile (66)
- 锁机制 (57)
- javaresponse (60)
- 查看hive版本 (59)
- phpworkerman (57)
- spark算子 (58)
- vue双向绑定的原理 (68)
- springbootget请求 (58)
- docker网络三种模式 (67)
- spring控制反转 (71)
- data:image/jpeg (69)
- base64 (69)
- java分页 (64)
- kibanadocker (60)
- qabstracttablemodel (62)
- java生成pdf文件 (69)
- deletelater (62)
- com.aspose.words (58)
- android.mk (62)
- qopengl (73)
- epoch_millis (61)
本文暂时没有评论,来添加一个吧(●'◡'●)