SparkSQL——通过JDBC的方式访问
Posted 夏延
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了SparkSQL——通过JDBC的方式访问相关的知识,希望对你有一定的参考价值。
1.前提
首先是hadoop的两个服务要开启
然后是hive 的metastore
然后启动spark-shell,如果没有启动hive的metastore,则会在这一步报错,说找不到hive的9083端口。至于启动spark-shell,则是为了看4040端口上的JDBS/ODBC服务
然后启动hive thriftservice
实例代码
package com.spark import java.sql.DriverManager /* 通过JDBC的方式访问 */ object SparkSQLThriftServer { def main(args: Array[String]): Unit = { Class.forName("org.apache.hive.jdbc.HiveDriver") val conn=DriverManager.getConnection("","","") val pstmt=conn.prepareStatement("select * from table") val rs=pstmt.executeQuery() while(rs.next()) { println("name"+rs.getInt("name")) } rs.close() pstmt.close() conn.close() } }
以上是关于SparkSQL——通过JDBC的方式访问的主要内容,如果未能解决你的问题,请参考以下文章
如何通过 Spark SQL 作为 JDBC 分布式查询引擎访问 RDD 表?
「Spark」Spark SQL Thrift Server运行方式
SparkSQL介绍与Hive整合Spark的th/beeline/jdbc/thriftserve2shell方式使用SQL