sparksql两种解决方式

Posted lcatake

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了sparksql两种解决方式相关的知识,希望对你有一定的参考价值。

object Test02 
  def main(args: Array[String]): Unit  = 
    val spark: SparkSession = SparkSession.builder().appName("aa").master("local[2]").getOrCreate()
             import spark.implicits._
           import org.apache.spark.sql.functions._
    val df: DataFrame = spark.read .json("file:///D:\\\\test\\\\1.json")
    df.printSchema()
      df.groupBy().count().show()
    df.summary("count").show()
    df.select("name","mon").groupBy().sum().show()
    df.createTempView("tmp")
    spark.sql(
      """
        |select count(1) as sum_alias from tmp
        |""".stripMargin
    ).show()
    spark.sql(
      """
        |select sum(mon) as sum_alias from tmp
        |""".stripMargin
    ).show()








    spark.stop()
  


以上是关于sparksql两种解决方式的主要内容,如果未能解决你的问题,请参考以下文章

spark利用sparkSQL将数据写入hive两种通用方式实现及比较

sparksql两种方式的执行效率

sparksql两种方式的执行效率

spark小案例——RDD,sparkSQL

spark小案例——RDD,sparkSQL

spark小案例——RDD,sparkSQL