Impala与Hive的比较

Posted 亦策大数据分析

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Impala与Hive的比较相关的知识,希望对你有一定的参考价值。

今天给大家整理了一下在项目上用到的Impala数据库相关资料~

希望能够给大家带来帮助~不足之处请多指教~


一、Impala和Hive初了解

(1)Impala和Hive都是提供对HDFS/Hbase数据进行SQL查询的工具。Hive会转换成MapReduce,借助于YARN进行调度从而实现对HDFS的数据的访问;而Impala直接对HDFS进行数据查询。

 (2)Apache Hive是MapReduce的高级抽象,使用HiveQL,Hive可以生成运行在Hadoop集群的MapReduce或Spark作业。Hive最初由Facebook大约在2007年开发,现在是Apache的开源项目。

ApacheImpala是高性能的专用SQL引擎,使用Impala SQL,因为Impala无需借助任何的框架,直接实现对数据块的查询,所以查询延迟毫秒级。Impala受到Google的Dremel项目启发,2012年由Cloudera开发,现在是Apache开源项目。


Impala与Hive的比较

二、Impala与Hive的关系

Impala是基于Hive的大数据实时分析查询引擎,直接使用Hive的元数据库Metadata,即Impala元数据都存储在Hive的metastore中,并且impala兼容Hive的sql解析,实现了Hive的SQL语义的子集,许多功能还在不断的完善中。

Impala与Hive在Hadoop中的关系如下图所示。Hive适合于长时间的批处理查询分析,而Impala适合于实时交互式SQL查询,Impala给数据分析人员提供了快速实验、验证想法的大数据分析工具。可以先使用hive进行数据转换处理,之后使用Impala在Hive处理后的结果数据集上进行快速的数据分析。

Impala与Hive的比较


Impala与Hive的比较
三、Impala相对于Hive所使用的优化技术

1、没有使用 MapReduce进行并行计算,虽然MapReduce是非常好的并行计算框架,但它更多的面向批处理模式,而不是面向交互式的SQL执行。与 MapReduce相比:Impala把整个查询分成一执行计划树,而不是一连串的MapReduce任务,在分发执行计划后,Impala使用拉式获取数据的方式获取结果,把结果数据组成按执行树流式传递汇集,减少的了把中间结果写入磁盘的步骤,再从磁盘读取数据的开销。Impala使用服务的方式避免 每次执行查询都需要启动的开销,即相比Hive没了MapReduce启动时间。

2、更好的IO调度,Impala知道数据块所在的磁盘位置能够更好的利用多磁盘的优势,同时Impala支持直接数据块读取和本地代码计算checksum。

3、通过选择合适的数据存储格式可以得到最好的性能(Impala支持多种存储格式)。

4、最大使用内存,中间结果不写磁盘,及时通过网络以stream的方式传递。

5、使用LLVM产生运行代码,针对特定查询生成特定代码,同时使用Inline的方式减少函数调用的开销,加快执行效率。

6、充分利用可用的硬件指令(SSE4.2)。


Impala与Hive的比较
四、Impala与Hive的异同

  1、相同点

数据存储:

使用相同的存储数据池都支持把数据存储于HDFS,HBase。

元数据:两者使用相同的元数据。

SQL解释处理:比较相似都是通过词法分析生成执行计划。


  2、不同点

执行计划:

Impala与Hive的比较Hive: 依赖于MapReduce执行框架,执行计划分成map->shuffle->reduce->map->shuffle->reduce…的模型。如果一个Query会 被编译成多轮MapReduce,则会有更多的写中间结果。由于MapReduce执行框架本身的特点,过多的中间过程会增加整个Query的执行时间。

Impala与Hive的比较Impala: 把执行计划表现为一棵完整的执行计划树,可以更自然地分发执行计划到各个Impalad执行查询,而不用像Hive那样把它组合成管道型的 map->reduce模式,以此保证Impala有更好的并发性和避免不必要的中间sort与shuffle。

数据流:

Impala与Hive的比较Hive: 采用推的方式,每一个计算节点计算完成后将数据主动推给后续节点。

Impala与Hive的比较Impala: 采用拉的方式,后续节点通过getNext主动向前面节点要数据,以此方式数据可以流式的返回给客户端,且只要有1条数据被处理完,就可以立即展现出来,而不用等到全部处理完成,更符合SQL交互式查询使用。

内存使用:

Impala与Hive的比较Hive: 在执行过程中如果内存放不下所有数据,则会使用外存,以保证Query能顺序执行完。每一轮MapReduce结束,中间结果也会写入HDFS中,同样由于MapReduce执行架构的特性,shuffle过程也会有写本地磁盘的操作。

Impala与Hive的比较Impala: 在遇到内存放不下数据时,当前版本1.0.1是直接返回错误,而不会利用外存,以后版本应该会进行改进。这使用得Impala目前处理Query会受到一 定的限制,最好还是与Hive配合使用。Impala在多个阶段之间利用网络传输数据,在执行过程不会有写磁盘的操作(insert除外)。

调度:

Impala与Hive的比较Hive: 任务调度依赖于Hadoop的调度策略。

Impala与Hive的比较Impala: 调度由自己完成,目前只有一种调度器simple-schedule,它会尽量满足数据的局部性,扫描数据的进程尽量靠近数据本身所在的物理机器。调度器 目前还比较简单,在SimpleScheduler::GetBackend中可以看到,现在还没有考虑负载,网络IO状况等因素进行调度。但目前 Impala已经有对执行过程的性能统计分析,应该以后版本会利用这些统计信息进行调度吧。

容错:

Impala与Hive的比较Hive: 依赖于Hadoop的容错能力。

Impala与Hive的比较Impala: 在查询过程中,没有容错逻辑,如果在执行过程中发生故障,则直接返回错误(这与Impala的设计有关,因为Impala定位于实时查询,一次查询失败, 再查一次就好了,再查一次的成本很低)。但从整体来看,Impala是能很好的容错,所有的Impalad是对等的结构,用户可以向任何一个 Impalad提交查询,如果一个Impalad失效,其上正在运行的所有Query都将失败,但用户可以重新提交查询由其它Impalad代替执行,不会影响服务。对于State Store目前只有一个,但当StateStore失效,也不会影响服务,每个Impalad都缓存了StateStore的信息,只是不能再更新集群状态,有可能会把执行任务分配给已经失效的Impalad执行,导致本次Query失败。

适用面:

Impala与Hive的比较Hive: 复杂的批处理查询任务,数据转换任务。

Impala与Hive的比较Impala:实时数据分析,因为不支持UDF,能处理的问题域有一定的限制,与Hive配合使用,对Hive的结果数据集进行实时分析。


-- END --

大数据整体解决方案

为客户提供大数据分析平台端到端解决方案


Ebistrategy

亦 策 软 件

400-676-1711

长按关注


以上是关于Impala与Hive的比较的主要内容,如果未能解决你的问题,请参考以下文章

spark会代替impala吗

hadoop生态系统学习之路hbase与hive的数据同步以及hive与impala的数据同步

HiveSpark SQLImpala比较

Impala,Presto和Hive在MR3上的性能评估

一页纸精华 | Impala

大数据专题--Hive 与 impala