spark sql 中的结构化数据

Posted 努力,奋斗

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark sql 中的结构化数据相关的知识,希望对你有一定的参考价值。

1. 连接mysql

 首先需要把mysql-connector-java-5.1.39.jar 拷贝到 spark 的jars目录里面;


scala> import org.apache.spark.sql.SQLContext
import org.apache.spark.sql.SQLContext

scala> val sqlContext=new SQLContext(sc)
warning: there was one deprecation warning; re-run with -deprecation for details
sqlContext: org.apache.spark.sql.SQLContext = [email protected]

scala>  sqlContext.read.format("jdbc").options(Map("url" -> "jdbc:mysql://localhost:3306/metastore",
     |  "driver" -> "com.mysql.jdbc.Driver", "dbtable" -> "DBS", "user" -> "root", "password" -> "root")).load().show
+-----+--------------------+--------------------+-------+----------+----------+
|DB_ID|                DESC|     DB_LOCATION_URI|   NAME|OWNER_NAME|OWNER_TYPE|
+-----+--------------------+--------------------+-------+----------+----------+
|    1|Default Hive data...|hdfs://localhost:...|default|    public|      ROLE|
|    2|                null|hdfs://localhost:...|    aaa|      root|      USER|
|    6|                null|hdfs://localhost:...| userdb|      root|      USER|
+-----+--------------------+--------------------+-------+----------+----------+

 













以上是关于spark sql 中的结构化数据的主要内容,如果未能解决你的问题,请参考以下文章

Spark SQL是处理结构化的数据

Spark SQL and DataFrame Guide(1.4.1)——之DataFrames

Spark SQL:结构化数据文件处理02

Spark SQL:结构化数据文件处理03

Spark SQL

Spark 结构化流中的临时视图