1spark-sql配置

Posted 专治spark

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了1spark-sql配置相关的知识,希望对你有一定的参考价值。

1、介绍

  spark SQL是构建在spark core模块上的四大模块之一,提供DataFrame等丰富的API,运行期间通过spark查询优化器翻译成物理执行计划,并行计算输出结果,底层计算原理用RDD计算实现。

2、standalone模式下的spark和hive集成

  1、在 /soft/spark/conf 下创建 /soft/hive/conf/hive-site.xml 的软链接

ln -s /soft/hive/conf/hive-site.xml /soft/spark/conf/hive-site.xml

  2、复制 /soft/hive/lib 下的mysql连接jar包到,spark的jars下

cp mysql-connector-java-5.1.44.jar /soft/spark/jars/

  3、关闭 hive 的hive-site.xml 中的版本检查,否则会报版本不一致异常

<property>
    <name>hive.metastore.schema.verification</name>
    <value>false</value>
</property>

  4、启动spark shell

//s101上开启
spark-shell --master spark://s101:7077

  

3、在 idea 中配置 spark sql 环境

  1、新建scala模块,添加maven支持

  2、添加依赖

<dependencies>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-sql_2.11</artifactId>
            <version>2.1.0</version>
        </dependency>

        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-hive_2.11</artifactId>
            <version>2.1.0</version>
        </dependency>

        <dependency>
            <groupId>mysql</groupId>
            <artifactId>mysql-connector-java</artifactId>
            <version>5.1.44</version>
        </dependency>
    </dependencies>

  3、复制core-site.xml、hdfs-site.xml、hive-site.xml文件到模块的resources目录下

  

 

以上是关于1spark-sql配置的主要内容,如果未能解决你的问题,请参考以下文章

VSCode自定义代码片段11——vue路由的配置

VSCode自定义代码片段11——vue路由的配置

VS Code配置markdown代码片段

VS Code配置markdown代码片段

从零开始配置vim(27)——代码片段

从零开始配置vim(27)——代码片段