初探Spark-使用大数据分析2000W行数据

Posted antgan

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了初探Spark-使用大数据分析2000W行数据相关的知识,希望对你有一定的参考价值。

初学spark和scala,做些小分析练习,学习资料可以看看这里

如何搭建scala环境和spark环境我就不说了,网上一堆堆的。


开发环境
scala version2.11.2 
spark version:spark-2.0.0-bin-hadoop2.4
Eclipse:4.4.2 Juno Service Release 2

本次实例是单机运行的,步骤如下:
1. 模拟2000W人口数据
2. 编写程序分析男女比例分布
3. 编写程序分析人口星座分布


一、 模拟数据

2000W行数据是自己模拟出来的,模拟随机生成人口资料。

package com.soecode.SparkDemo

import java.io.PrintWriter

/**
 * 模拟一个城市人口
 */
object CreateTestFile 
    def main(args: Array[String]) 
        val start = System.currentTimeMillis();
        val out = new PrintWriter("d://renkou.txt")

        for(i <- 1 to 20000000)
            out.println(i+","+getName+","+getBirth+","+getSex)
        
        out.close()
        val end = System.currentTimeMillis();
        print("任务结束,耗时:"+(end-start)+"ms")
    

    //随机产生名
    def getName:String = 
        val chs = "abcdefghijklmnopqrstuvwxyz"
        val len = (1+5*Math.random()).toInt
        var str ="" 
        for(i<-1 to len)
            val l = (0+25*Math.random()).toInt
            str+=chs(l)                         
        
        str
    

    //随机产生出生日期
    def getBirth:String =
        val year = (1949+67*Math.random()).toInt
        val month = (1 + 12*Math.random()).toInt
        val day = (1+30*math.random).toInt
        year+"-"+month+"-"+day        
    

    //随机产生性别
    def getSex:Integer=if(Math.random()>0.3) 1 else 0

二、分析男女分布

代码:

package com.soecode.SparkDemo

import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import scala.collection.mutable.ArrayBuffer

/**
 * 分析男女分布
 */
object StatBG 
    def main(args: Array[String]) 
        val conf = new SparkConf().setAppName("Demo").setMaster("local");//spark conf
        val sc = new SparkContext(conf);//spark上下文

        println("任务开始")
        val start = System.currentTimeMillis();
        val lines = sc.textFile("d://renkou.txt")//读取本地文件建立RDD

        import scala.util.parsing.json.JSON
        //使用map操作,形成新的集合。 如:Map(1,0,1,1,1)  0 代表女,1代表男
        val result = lines.map(s=>
          val sp = s.split(",")
          sp(3)
        ).countByValue

        val end = System.currentTimeMillis();

        println("任务结束,耗时:"+(end-start)+"ms");
        print(result)
    

运行结果:

任务结束,耗时:10114ms
Map(0 -> 6001173, 1 -> 13998827)

三、分析人口星座分布

代码:

package com.soecode.SparkDemo

import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import scala.collection.mutable.ArrayBuffer

/**
 * 分析星座分布
 */
object StatBirth 
    val dayArr = Array[Integer]( 20, 19, 21, 20, 21, 22, 23, 23, 23, 24, 23, 22 )
    val constellationArr = Array[String]("摩羯座", "水瓶座", "双鱼座", "白羊座", "金牛座", "双子座", "巨蟹座", "狮子座", "处女座", "天秤座", "天蝎座", "射手座", "摩羯座" )

    def main(args: Array[String]) 
        val conf = new SparkConf().setAppName("Demo").setMaster("local");
        val sc = new SparkContext(conf);
        println("任务开始")
        val start = System.currentTimeMillis();

        val lines = sc.textFile("d://renkou.txt")
        import scala.util.parsing.json.JSON

        //RDD进行map操作,获取每行,然后split分割,换算星座返回新的map(金牛座,水瓶座,……)
        val result = lines.map(s=>
            val sp = s.split(",")
            val sp_birth = sp(2).split("-")
            val month = sp_birth(1).toInt
            val day = sp_birth(2).toInt
            getConstellation(month, day)    
        ).countByValue

        val end = System.currentTimeMillis();
        println("任务结束,耗时:"+(end-start)+"ms");

        for(m <- result) println(m._1 +":"+m._2 )
    

    //获取星座
    def getConstellation(month : Integer, day:Integer) : String =   
        if(day < dayArr(month - 1)) constellationArr(month - 1) else constellationArr(month)
     

运行结果:

任务结束,耗时:12589ms
巨蟹座:1722834
射手座:1610733
双鱼座:1777411
白羊座:1610940
处女座:1668062
双子座:1721596
金牛座:1720431
狮子座:1665213
天秤座:1722568
水瓶座:1613145
天蝎座:1612089
摩羯座:1554978

后记:

初学spark,前面踩了些坑。例如,如果在操作数据的时候,如果不注重运行效率。会导致程序跑很久。
例如我最开始生成的模拟数据是json格式的。在操作数据的时候使用scala api将json转成对象取值。

效率差到不行。仅仅200W数据就要跑313秒,引以为戒。

以上是关于初探Spark-使用大数据分析2000W行数据的主要内容,如果未能解决你的问题,请参考以下文章

基于 Kubernetes 的企业级大数据平台,EMR on ACK 技术初探

MySQL十四:单表最大2000W行数据

Spark下生成测试数据,并在Spark环境下使用BulkProcessor将测试数据入库到ES6.4.2

MySql 最大建议行数 2000w,靠谱吗?

MySQL 单表不要超过 2000W 行,靠谱吗?

MySQL 单表不要超过 2000W 行,靠谱吗?