Spark抽取mysql中的数据到Hive中

Posted 会编程的李较瘦

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark抽取mysql中的数据到Hive中相关的知识,希望对你有一定的参考价值。

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录


思路

spark抽取mysql中的数据到hive中,可通过以下2步完成:
1.先将mysql中的数据抽取到存放再hdfs上的一个文件(.csv,.txt)
2.再讲文件通过load命令加载到hive中


下面用具体案例演示

一、案例介绍

本案例是讲mysql中的person表抽取到hive中,其中mysql中的数据如下图所示:

二、具体步骤

1.编写scala程序完成从mysql讲数据导出成csv文件

代码如下(示例):

object Test 
  def main(args: Array[String]): Unit = 
    val spark = SparkSession.builder().appName("csv").master("spark://master:7077").getOrCreate()
    val prop = new Properties()
    prop.setProperty("user","root")
    prop.setProperty("password","123456")
    val dataDf = spark.read.option("header","true").jdbc("jdbc:mysql://192.168.233.131:3306/spark","person",prop)
   
    dataDf.write.option("delimiter",",").option("header","false").csv("hdfs://master:9000/spark/person")
    

2.打包成jar包提交到集群上

代码如下(示例):

spark-submit --class com.test.Test /root/test.jar 

打包成的jar包命名为test.jar,最终运行结束后,查看namenode的UI界面可以看到如下2个文件。


![在这里插入图片描述](https://img-blog.csdnimg.cn/1bf48cf451334a32ad5af1904adaf50b.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBA5Lya57yW56iL55qE5p2O6L6D55im,size_20,color_FFFFFF,t_70,g_se,x_16)

3.将hdfs上的这个文件下载到本地目录下

下载并修改文件名代码如下(示例):

hadoop fs -get /spark/person/part-00000-5d59800d-1c52-4234-be1e-88951e0de7ed.csv /root/
mv part-00000-5d59800d-1c52-4234-be1e-88951e0de7ed.csv person.csv 

结果如下:

4.将本地数据文件的数据加载到hive中

代码如下(示例):

//新建数据库
create database sparktest;
use sparktest;
//新建表格,并指定分隔符为','
create table person2(ID int,Name string,Age int)
row format delimited fields terminated by ',';
//加载数据
load data local inpath '/root/person.csv' into table person;
//查看表中数据
select * from person;

结果如下(示例):
在这里插入图片描述

在hive中查看表中数据时,希望显示表头时,需要再启动hive后,做如下设置:

set hive.ctl.print.header=true;

总结

这个案例演示了如何从mysql将数据加载到hive的内部表中,用到了sparksql相关的编程知识。

以上是关于Spark抽取mysql中的数据到Hive中的主要内容,如果未能解决你的问题,请参考以下文章

Spark抽取mysql中的数据到Hive中

Spark抽取mysql中的数据到Hive中

在idea上链接hive 并将mysql上的数据抽取到hive表中

模块B:离线数据处理

大数据常用数据抽取

HADOOP MapReduce 处理 Spark 抽取的 Hive 数据解决方案一