:SparkSQL快速入门
Posted 黑马程序员官方
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了:SparkSQL快速入门相关的知识,希望对你有一定的参考价值。
Spark是大数据体系的明星产品,是一款高性能的分布式内存迭代计算框架,可以处理海量规模的数据。下面就带大家来学习今天的内容!
往期内容:
- Spark基础入门-第一章:Spark 框架概述
- Spark基础入门-第二章:Spark环境搭建-Local
- Spark基础入门-第三章:Spark环境搭建-StandAlone
- Spark基础入门-第四章:Spark环境搭建-StandAlone-HA
- Spark基础入门-第五章:环境搭建-Spark on YARN
- Spark基础入门-第六章:PySpark库
- Spark基础入门-第七章:本机开发环境搭建
- Spark基础入门-第八章:分布式代码执行分析
- Spark Core-第一章: RDD详解
- Spark Core-第三章:RDD的持久化
- Spark Core-第四章:Spark案例练习
- Spark Core-第五章:共享变量
- Spark Core-第六章:Spark 内核调度
一、什么是SparkSQL
SparkSQL 是Spark的一个模块, 用于处理海量结构化数据
限定: 结构化数据处理
二、为什么学习SparkSQL
SparkSQL是非常成熟的 海量结构化数据处理框架.
学习SparkSQL主要在2个点:
SparkSQL本身十分优秀, 支持SQL语言\\性能强\\可以自动优化\\API简单\\兼容HIVE等等
企业大面积在使用SparkSQL处理业务数据
- 离线开发
- 数仓搭建
- 科学计算
- 数据分析
三、SparkSQL的特点
四、SparkSQL发展历史 - 前身 Shark框架
在许多年前(2012\\2013左右)Hive逐步火热起来, 大片抢占分布式SQL计算市场;
Spark作为通用计算框架, 也不可能放弃这一细分领域。于是, Spark官方模仿Hive推出了Shark框架(Spark 0.9版本);
Shark框架是几乎100%模仿Hive, 内部的配置项\\优化项等都是直接模仿而来,不同的在于将执行引擎由MapReduce更换为了Spark;
因为Shark框架太模仿Hive, Hive是针对MR优化, 很多地方和SparkCore(RDD)水土不服, 最终被放弃
Spark官方下决心开发一个自己的分布式SQL引擎 也就是诞生了现在的SparkSQL
● 2014年 1.0正式发布
● 2015年 1.3 发布DataFrame数据结构, 沿用至今
● 2016年 1.6 发布Dataset数据结构(带泛型的DataFrame), 适用于支持泛型的语言(Java\\Scala)
● 2016年 2.0 统一了Dataset 和 DataFrame, 以后只有Dataset了, Python用的DataFrame就是 没有泛型的Dataset
● 2019年 3.0 发布, 性能大幅度提升, SparkSQL变化不大
以上是关于:SparkSQL快速入门的主要内容,如果未能解决你的问题,请参考以下文章