网站首页 > 技术文章 正文
今天我们尝试在hive中查phoenix。也就是hbase-->Phoenix-->hive这样的链路。
环境
CDH-6.3.1Hive-2.1.1Phoenix-5.0.0Hbase-2.1.0 hive集成phoenix仅支持hive使用mapreduce,tez引擎,不支持spark引擎;如果启用了kerberos,需要使用同时有hive和hbase权限的用户;
依赖
需要在hive中添加phoenix的jar包依赖,下面的命令是在hive命令行里session级别生效的,如果想全局生效可参考上面的hive操作ES的文章里的内容。phoenix-version-hive.jar包可以在$PHOENIX_HOME/lib下找到。
add jar /home/tools/wyk/phoenix-5.0.0-cdh6.2.0-hive.jar;
验证
在hive中建phoenix内表
在hive中创建Phoenix内部表,hive会管理结构和数据,会自动在phoenix建表,删除hive表的时候对应的Phoenix表也删除。
-- 在hive中创建Phoenix内部表,hive会管理结构和数据,会自动在phoenix建表,删除hive表的时候对应的Phoenix表也删除:create table default.phoenix_hive_create_internal (s1 string,i1 int,f1 float,d1 double)STORED BY 'org.apache.phoenix.hive.PhoenixStorageHandler'TBLPROPERTIES ("phoenix.table.name" = "phoenix_hive_create_internal","phoenix.zookeeper.quorum" = "uathd01,uathd02,uathd03","phoenix.zookeeper.znode.parent" = "/hbase","phoenix.zookeeper.client.port" = "2181","phoenix.rowkeys" = "s1, i1","phoenix.column.mapping" = "s1:s1, i1:i1, f1:f1, d1:d1","phoenix.table.options" = "SALT_BUCKETS=10, DATA_BLOCK_ENCODING='DIFF'");
在hive中建完Phoenix内表之后可以看到在phoenix中和hbase中都自动创建了一张表PHOENIX_HIVE_CREATE_INTERNAL。
从hive往phoenix插入数据
不支持spark引擎:
--修改执行引擎set hive.execution.engine=mr; --在hive中插入一条记录insert into default.phoenix_hive_create_internal values('wyk',1,2.3412,3.14);
查看hbase和phoenix端是否同步了该数据:
--hive端验证能否看到phoenix端插入的记录select * from default.phoenix_hive_create_internal ;
从Phoenix插入数据,在hive端查看
--hive端验证能否看到phoenix端插入的记录select * from default.phoenix_hive_create_internal ;
--hive端验证能否看到phoenix端插入的记录select * from default.phoenix_hive_create_internal ;
在Hive中对Phoenix的数据进行更新
官方文档上说不支持在hive中对phoenix表进行update和delete操作,但是我们可以执行insert命令,只要主键与phoenix表的相同就会自动更新。
例:
--准备一条记录用做更新insert into default.phoenix_hive_create_internal values('csdn',3,0.222,0.1114); --再次插入一条记录,主键与phoenix的相同,这里的是s1和i1组合键,更新f1字段insert into default.phoenix_hive_create_internal values('csdn',3,0.888,0.1114);
如果在hive中对phoenix表执行update或delete 命令会报下面的错误:
--不支持update deleteupdate default.phoenix_hive_create_internal set f1=0.888 where i1=3;delete from default.phoenix_hive_create_internal where i1=3;FAILED: SemanticException [Error 10294]: Attempt to do update or delete using transaction manager that does not support these operations.
"Hive on Phoenix" VS "Hive on Hbase"
hive读phoenix和hive读hbase的性能对比:
首先在hive中建一个hbase外表,然后建一个phoenix外表,将hive表的数据同时写入hbase表和phoenix表,然后对比在hive中查询hbase和phoenix的性能。
hive建hbase外表和phoenix外表以及数据准备的步骤先略过了,在之前的文章和本篇上面已经有过示例代码,我们直接看表:
Hive shell--hive表select count(1) from tbl_doc_record; result: 565343--hbase外表select count(1) from default.hbase_tbl_doc_record; result: 565343 --phoenix外表select count(1) from default.phoenix_tbl_doc_record;result: 565343
对比phoenix客户端查出来的结果一致都是565343条记录:
尝试了几个SQL,使用hive查询phoenix和hbase的性能几乎一致,直接在phoenix里查询性能远超在impala中查询hive表。很奇怪为什么使用hive查询phoenix就慢了呢,下面根据Phoenix上的方式修改配置。
提升Hive查询Phoenix的性能:
按官方的说法,设置下面两个参数后,在Hive shell中对phoenix表的查询速度跟在phoenix client中查询一样,但尝试之后发现在hive中查询phoenix表的速度跟查hbase表差不多,就是很慢,但是在phoenix client查刚才从hive建的表就很快,尝试修改了好几个参数都没能成功,希望有小伙伴尝试成功了能跟我同步一下,谢谢。
Hive Shell:set hive.exec.parallel=true;set hive.fetch.task.conversion=more ;
当前版本的限制
- 暂不支持在Hive中对Phoenix表进行更新update和删除delete。但是可以通过insert的时候主键相同会实现更新操作,和hive操作ES类似。
- 字段映射不到rowkey列。
- mapreduce和tez引擎仅支持一个reducer。
猜你喜欢
- 2024-10-12 大数据分析工具——hive入门 hive数据分析的一般流程是什么
- 2024-10-12 019Hive基本使用03 019Hive基本使用03 #liaoit
- 2024-10-12 手把手教你搭建Hive环境 搭建hive集群
- 2024-10-12 0474-如何使用SQL Developer访问Hive
- 2024-10-12 大数据之-HIVE入门(十四) php hive大数据处理
- 2024-10-12 Hive 迁移参考方案及测试(下) hive表迁移
- 2024-10-12 0263-Hive2.2.0如何与CDH集群中的Spark1.6集成
- 2024-10-12 如何在HUE上通过oozie调用Hive SQL工作流
- 2024-10-12 百度二面:你做过哪些Hive调优啊? hive调优与参数设置
- 2024-10-12 HiveSQL:如何从给定的日期中减去指定数量的天数?
你 发表评论:
欢迎- 最近发表
- 标签列表
-
- oraclesql优化 (66)
- 类的加载机制 (75)
- feignclient (62)
- 一致性hash算法 (71)
- dockfile (66)
- 锁机制 (57)
- javaresponse (60)
- 查看hive版本 (59)
- phpworkerman (57)
- spark算子 (58)
- vue双向绑定的原理 (68)
- springbootget请求 (58)
- docker网络三种模式 (67)
- spring控制反转 (71)
- data:image/jpeg (69)
- base64 (69)
- java分页 (64)
- kibanadocker (60)
- qabstracttablemodel (62)
- java生成pdf文件 (69)
- deletelater (62)
- com.aspose.words (58)
- android.mk (62)
- qopengl (73)
- epoch_millis (61)
本文暂时没有评论,来添加一个吧(●'◡'●)