SparkSQL——通过JDBC的方式访问

Posted 夏延

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了SparkSQL——通过JDBC的方式访问相关的知识,希望对你有一定的参考价值。

1.前提

  首先是hadoop的两个服务要开启

  然后是hive 的metastore

  然后启动spark-shell,如果没有启动hive的metastore,则会在这一步报错,说找不到hive的9083端口。至于启动spark-shell,则是为了看4040端口上的JDBS/ODBC服务

  然后启动hive thriftservice

 

实例代码

package com.spark

import java.sql.DriverManager

/*
   通过JDBC的方式访问
 */
object SparkSQLThriftServer {

  def main(args: Array[String]): Unit = {

    Class.forName("org.apache.hive.jdbc.HiveDriver")

    val conn=DriverManager.getConnection("","","")
    val pstmt=conn.prepareStatement("select * from table")
    val rs=pstmt.executeQuery()
    while(rs.next())
      {
        println("name"+rs.getInt("name"))
      }

    rs.close()
    pstmt.close()
    conn.close()

  }
}

 

以上是关于SparkSQL——通过JDBC的方式访问的主要内容,如果未能解决你的问题,请参考以下文章

SparkSQL JDBC和JDBCServer区别

如何通过 Spark SQL 作为 JDBC 分布式查询引擎访问 RDD 表?

「Spark」Spark SQL Thrift Server运行方式

SparkSQL介绍与Hive整合Spark的th/beeline/jdbc/thriftserve2shell方式使用SQL

SparkSQL-数据的加载和保存

带有 JDBC 连接的 SparkSql [重复]