spark-day1

Posted 漫漫长路

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark-day1相关的知识,希望对你有一定的参考价值。

#!/usr/bin/python
# -*- coding: utf_8 -*-
from pyspark import SparkConf, SparkContext
import os, time


if __name__ == ‘__main__‘:
    # Create SparkConf
    # sparkConf:是一个SparkConf的对象,用来初始化程序,配置应用,传递初始参数
    # setAppName:指定rdd名称;setMaster:指定运行的线程
    sparkConf = SparkConf()         .setAppName("python Spark WordCount")         .setMaster("local")

    # Create SparkContext
    # sc:是一个SparkContext的对象,代表了对计算集群的连接,用来访问Spark,创建RDD
    # 将sprkConf作为参数传递给SparkContext
    sc =SparkContext(conf=sparkConf)

    ‘‘‘
        创建RDD:
            方式一:从本地集和并行化创建
            方式二:从外部文件系统读取数据(HDFS)
    ‘‘‘
    # ----------第一种方式:从集合并行化创建RDD----------
    datas = ["hadoop spark", "spark hive spark sql", "spark hadoop sql spark"]

    # parallelize方法:接收一个list数据集作为参数,可以快速创建RDD;缺点:需要将数据集都加载到内存中
    rdd1 = sc.parallelize(datas)


    # ----------第二种方式:从外部存储中读取数据创建RDD----------

    # textfile方法:将文本文件读取为一个存储字符串的RDD
    rdd2 = sc.textFile(‘T_CAR_20150401.csv‘)

    # 转化操作:
    car_rdd = rdd2.filter(lambda x:‘FB5018‘ in x)
    car2_rdd = rdd2.filter(lambda x:‘FB5093‘in x)
    total_rdd = car_rdd.union(car2_rdd)

    # 行动操作:
    # count:获取个数
    # first:获取第一条数据
    print rdd1.count()
    print rdd1.first()
    print total_rdd.count()
    print total_rdd.first()

    # 休眠一段时间,为WEB UI进行监控
    time.sleep(100000)

    # SparkContext stop
    sc.stop()

 

以上是关于spark-day1的主要内容,如果未能解决你的问题,请参考以下文章

自学it18大数据笔记-第三阶段Spark-day14;Spark-day15(开始试水找工作了)——会持续更新……

spark-day04-依赖关系-持久化-分区器-数据结构

自学it18大数据笔记-第三阶段Spark-day03——会持续更新……

自学it18大数据笔记-第三阶段Spark-day05——会持续更新……

自学it18大数据笔记-第三阶段Spark-day06——会持续更新……

自学it18大数据笔记-第三阶段Spark-day07——会持续更新……