Carbondata 1.4.0+Spark 2.2.1 On Yarn集成安装

Posted 深广大数据Club

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Carbondata 1.4.0+Spark 2.2.1 On Yarn集成安装相关的知识,希望对你有一定的参考价值。

由于项目需要,近期一直在研究华为开源的carbondata项目,目前carbondata已经成为apache的顶级项目,项目活跃程度也比较高。

Carbondata介绍

纵观目前的大数据生态圈,针对于ad-hoc查询并没有什么好的解决方案,且查询效率不高。Carbondata针对ad-hoc给出了解决方案,但是目前版本这个方案并不完善。为什么说并不完善,后续会给大家解答,我们先来说下carbondata的优点

查询

  • 两级索引,减少IO:适合ad-hoc查询,任意维度组合查询场景

    • 第一级:文件索引,用于过滤hdfs block,避免扫描不必要的文件

    • 第二级:Blocklet索引,用于过滤文件内部的Blocklet,避免骚烤不必要的Blocklet

  • 延迟解码,向量化处理:适合全表扫描、汇总分析场景

数据管理

  • 数据增量入库,多级排序可调:有用户权衡入库时间和查询性能

    • 字典编码配置(Dictionary Encoding Configuration)

    • 反向索引配置(Inverted Index Configuration)

    • 排序列配置(Sort Columns Configuration)

  • 增量更新,批量合并:支持快速更新事实表或维表,闲时做Compaction合并

大规模

  • 计算与存储分离:支持从GB到PB大规模数据,万亿数据秒级响应

部署

  • Hadoop Native格式:与大数据生态无缝集成,利用已有hadoop集群资产

  • 与Spark2.x版本集成

carbondata 1.4.0新增了挺多强大的功能,主要关注的点是在datamap上,不过目前datamap对于单表的支持是比较好的,但是对于多表join的datamap支持还不够完善,还是有蛮多问题的。

单表的datamap目前包括:preaggregate、timeseries、bloomfilter、lucene

#创建datamap
CREATE DATAMAP [IF NOT EXISTS] ${dataMapName} 
    ON TABLE '${tableName}'
    USING "datamap_provider"   #preaggregate,timeseries,bloomfilter,lucene
    DMPROPERTIES ('key'='value', ...)
    AS
        SELECT statement

#删除datamap
DROP DATAMAP ${dataMapName} ON TABLE ${tableName}

#查询datamap
SHOW DATAMAP ON TABLE '${tableName}'

多表datamap目前1.4.0官方文档并没有给出,我是通过carbondata jira的问题找到其创建方式的,多表的datamap预计在1.5.0版本才能使用,目前问题较多,这里暂时不建议使用,等1.5.0版本出来之后再试试看。1.5.0版本官方等版本计划是8-9月份完成。

CREATE DATAMAP [IF NOT EXISTS] ${dataMapName} 
    USING 'mv' 
    AS
        SELECT statement

与Spark2.2.1 On Yarn集成

前置条件

  • Hadoop HDFS 和 Yarn 需要安装和运行。

  • Spark 需要在所有的集群节点上安装并且运行。

  • CarbonData 用户需要有权限访问 HDFS.

可以通过https://dist.apache.org/repos/dist/release/carbondata/1.4.0/下载你对应的spark版本,目前carbondata支持的spark版本有两个:2.1.0、2.2.1

下载apache-carbondata-1.4.0-bin-spark2.2.1-hadoop2.7.2.jar

wget https://dist.apache.org/repos/dist/release/carbondata/1.4.0/apache-carbondata-1.4.0-bin-spark2.2.1-hadoop2.7.2.jar

依赖包拷贝

# 替换jersey-client、jersey-core包
cp jersey-client-1.9.jar jersey-core-1.9.jar $SPARK_HOME/jars
rm jersey-client-2.x.jar jersey-core-2.x.jar

# 拷贝apache-carbondata-1.4.0-bin-spark2.2.1-hadoop2.7.2.jar到$SPARK_HOME/jars
cp apache-carbondata-1.4.0-bin-spark2.2.1-hadoop2.7.2.jar $SPARK_HOME/jars

创建carbonlib目录且生成tar.gz压缩包

#1、创建carbonlib目录
mkdir $SPARK_HOME/carbonlib

#2、拷贝carbondata jar包到carbonlib
cp apache-carbondata-1.4.0-bin-spark2.2.1-hadoop2.7.2.jar $SPARK_HOME/carbonlib

#3、生成tar.gz包
cd $SPARK_HOME
tar -zcvf carbondata.tar.gz carbonlib/
mv carbondata.tar.gz carbonlib/

[注]:如果想要测试多表的datamap mv功能,需要编译carbondata-apache-carbondata-1.4.0-rc2/datamap/mv下的core和plan两个工程,生成carbondata-mv-core-1.4.0.jar以及carbondata-mv-plan-1.4.0.jar并拷贝$SPARK_HOME/jarsSPARK_HOME/carbonlib,并重新执行上述第三步的内容。

拷贝carbondata.properties

拷贝carbon.properties.template到$SPARK_HOME/conf目录且命名为carbon.properties

cp ./conf/carbon.properties.template $SPARK_HOME/conf/carbon.properties

配置spark-default.conf

spark.master yarn-client
spark.yarn.dist.files /usr/hdp/2.6.2.0-205/spark2/conf/carbon.properties
spark.yarn.dist.archives /usr/hdp/2.6.2.0-205/spark2/carbonlib/carbondata.tar.gz
spark.executor.extraJavaOptions -Dcarbon.properties.filepath=carbon.properties -XX:+OmitStackTraceInFastThrow -XX:+UseGCOverheadLimit
spark.executor.extraClassPath carbondata.tar.gz/carbonlib/*:/home/hadoop/hive/lib/*
spark.driver.extraClassPath /usr/hdp/2.6.2.0-205/spark2/carbonlib/*
spark.driver.extraJavaOptions -Dcarbon.properties.filepath=/usr/hdp/2.6.2.0-205/spark2/conf/carbon.properties -Dhdp.version=current

spark.yarn.executor.memoryOverhead 1024
spark.yarn.driver.memoryOverhead 1024
spark.yarn.am.extraJavaOptions -Dhdp.version=current
spark.yarn.scheduler.heartbeat.interval-ms 7200000
spark.executor.heartbeatInterval 7200000
spark.network.timeout 300000

验证

启动thrift server服务

$SPARK_HOME/bin/spark-submit --class org.apache.carbondata.spark.thriftserver.CarbonThriftServer --num-executors 5 --driver-memory 6g --executor-memor^C10g --executor-cores 5 carbonlib/apache-carbondata-1.4.0-bin-spark2.2.1-hadoop2.7.2.jar hdfs://hacluster/user/hive/warehouse/carbon.store

执行后,任务会提交到yarn上,可以通过8088端口的web界面查看到。

如果在不配置spark-default.conf的情况下,其实也是可以运行的,不过是以单机模式运行,不会提交成yarn任务,通过4040端口可以查看到spark任务的运行情况

使用beeline链接

$SPARK_HOME/bin/beeline -u jdbc:hive2://<thriftserver_host>:10000 -n hdfs

以上就是基于Spark on yarn模式的carbondata集成,carbondata同时也支持Spark独立模式的集成安装。具体可参考下面的链接。

参考连接

[http://carbondata.iteblog.com/installation-guide.html]http://carbondata.iteblog.com/installation-guide.html
[https://carbondata.apache.org/installation-guide.html]https://carbondata.apache.org/installation-guide.html

赞赏

如果你觉得对你有帮助,欢迎赞赏,有你的支持,我们一定会越来越好!



以上是关于Carbondata 1.4.0+Spark 2.2.1 On Yarn集成安装的主要内容,如果未能解决你的问题,请参考以下文章

深圳:Apache CarbonData & Spark Meetup

看CarbonData如何用四招助力Apache Spark

单表千亿电信大数据场景,使用Spark+CarbonData替换Impala案例

CarbonData-1:common

Carbondata源码系列文件格式详解

Apache CarbonData1.3简介