Spark系列 SparkGraphX下的Pregel方法----完美解决单源最短路径的应用算法

Posted N个程序猿的日常

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark系列 SparkGraphX下的Pregel方法----完美解决单源最短路径的应用算法相关的知识,希望对你有一定的参考价值。

文章目录

    • Pregel框架:

      • 一:Spark GraphX Pregel:

      • 二:Pregel计算过程:

        • Pregel函数源码及各个参数解析:

      • 三:案例:单源最短路径

        • 第一步:调用pregel方法:

        • 第二步:第一次迭代:

        • 第三步:第二次迭代:

        • 第四步:不断迭代,直至所有顶点处于钝化态

        • 案例代码如下:

Pregel框架:

一:Spark GraphX Pregel:

  • Pregel是google提出的用于大规模分布式图计算框架

    • 图遍历(bfs)

    • 单源最短路径(sssp)

    • pageRank计算

  • Pregel的计算有一系列迭代组成

  • Pregel迭代过程

    • 每个顶点从上一个superstep接收入站消息

    • 计算顶点新的属性

    • 在下一个superstep中向相邻的顶点发送消息

    • 当没有剩余消息时,迭代结束

二:Pregel计算过程:

Pregel函数源码及各个参数解析:

def pregel[A: ClassTag](    // 图节点的初始信息
initialMsg: A, // 最大迭代次数
maxIterations: Int = Int.MaxValue, //
activeDirection: EdgeDirection = EdgeDirection.Either)(
vprog: (VertexId, VD, A) => VD,
sendMsg: EdgeTriplet[VD, ED] => Iterator[(VertexId, A)],
mergeMsg: (A, A) => A)
: Graph[VD, ED] = {
Pregel(graph, initialMsg, maxIterations, activeDirection)(vprog, sendMsg, mergeMsg)
}

参数 说明
initialMsg 图初始化的时候,开始模型计算的时候,所有节点都会先收到一个消息
maxIterations 最大迭代次数
activeDirection 规定了发送消息的方向
vprog 节点调用该消息将聚合后的数据和本节点进行属性的合并
sendMsg 激活态的节点调用该方法发送消息
mergeMsg 如果一个节点接收到多条消息,先用mergeMsg 来将多条消息聚合成为一条消息,如果节点只收到一条消息,则不调用该函数

三:案例:单源最短路径

首先要清楚关于 顶点 的两点知识:

  1. 顶点 的状态有两种:


    (1)、钝化态【类似于休眠,不做任何事】


    (2)、激活态【干活】

  2. 顶点 能够处于激活态需要有条件:


    (1)、成功收到消息 或者


    (2)、成功发送了任何一条消息

第一步:调用pregel方法:

从5出发,除自身顶点外所有顶点都将接收一条初始消息initialMsg,使所有顶点处于激活态,并将属性改成无穷大。自身顶点为0。

第二步:第一次迭代:

所有顶点以EdgeDirection.Out的边方向调用sendMsg方法发送消息给目标顶点,如果 源顶点的属性+边的属性<目标顶点的属性,则发送消息。否则不发送。

之后只有两条边的信息发送成功了

5—>3(0+8 6(0+3<Double.Infinity , 成功)

此时只有5,3,6处于激活态了,3,6调用vprog方法,将属性合并。

第三步:第二次迭代:

处于激活态的3,6调用sendMsg方法发送消息。

最后只有3—>2(8+4<Double.Infinity,成功)

此时只有3,2处于激活态,2调用vprog方法将属性合并。

第四步:不断迭代,直至所有顶点处于钝化态

每个顶点的属性,就是顶点5到达各个顶点的最短距离。

案例代码如下:

package com.wyw
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.graphx._
import org.apache.spark.rdd.RDD
object Pregel { //1、创建SparkContext
val sparkConf = new SparkConf().setAppName("GraphxHelloWorld").setMaster("local[*]")
val sparkContext = new SparkContext(sparkConf) //2、创建顶点
val vertexArray = Array(
(1L, ("Alice", 28)),
(2L, ("Bob", 27)),
(3L, ("Charlie", 65)),
(4L, ("David", 42)),
(5L, ("Ed", 55)),
(6L, ("Fran", 50))
)
val vertexRDD: RDD[(VertexId, (String,Int))] = sparkContext.makeRDD(vertexArray) //3、创建边,边的属性代表 相邻两个顶点之间的距离
val edgeArray = Array(
Edge(2L, 1L, 7),
Edge(2L, 4L, 2),
Edge(3L, 2L, 4),
Edge(3L, 6L, 3),
Edge(4L, 1L, 1),
Edge(2L, 5L, 2),
Edge(5L, 3L, 8),
Edge(5L, 6L, 3)
)
val edgeRDD: RDD[Edge[Int]] = sparkContext.makeRDD(edgeArray) //4、创建图(使用aply方式创建)
val graph1 = Graph(vertexRDD, edgeRDD) /* ************************** 使用pregle算法计算 ,顶点5 到 各个顶点的最短距离 ************************** */

//被计算的图中 起始顶点id,初始化把点属性全部换成正无穷
val srcVertexId = 5L
val initialGraph = graph1.mapVertices{ case (vid,(name,age)) => if (vid==srcVertexId) 0.0
else
Double.PositiveInfinity
} //5、调用pregel柯里化函数
val pregelGraph: Graph[Double, PartitionID] = initialGraph.pregel(
Double.PositiveInfinity,
Int.MaxValue,
EdgeDirection.Out
)( // 传三个匿名函数参数
// 我收到消息后与本节点判断
(vid: VertexId, vd: Double, distMsg: Double) => { // 比较两者值
val minDist = math.min(vd, distMsg)
println(s"顶点$vid,属性$vd,收到消息$distMsg,合并后的属性$minDist") // 把小数据发送出去
minDist
}, // 是不是要向下个点发数据
(edgeTriplet: EdgeTriplet[Double,PartitionID]) => { // 检查起点+权重的值 和终点的值判断,小于才发送
if (edgeTriplet.srcAttr + edgeTriplet.attr < edgeTriplet.dstAttr) {
println(s"顶点${edgeTriplet.srcId} 给 顶点${edgeTriplet.dstId} 发送消息 ${edgeTriplet.srcAttr + edgeTriplet.attr}")

Iterator[(VertexId, Double)]((edgeTriplet.dstId, edgeTriplet.srcAttr + edgeTriplet.attr))
} else {
Iterator.empty
}
}, // 多个消息进行判断,取最小的消息发送,每次都处理2个
(msg1: Double, msg2: Double) => math.min(msg1, msg2)
) //6、输出结果
// pregelGraph.triplets.collect().foreach(println)
// println(pregelGraph.vertices.collect.mkString("\n"))

//7、关闭SparkContext
sparkContext.stop()

}


以上是关于Spark系列 SparkGraphX下的Pregel方法----完美解决单源最短路径的应用算法的主要内容,如果未能解决你的问题,请参考以下文章

倾情大奉送--Spark入门实战系列

Spark GraphX企业运用

Spark GraphX企业运用

大数据系列12:spark graphframe

Spark GraphX实例

大数据技术之_19_Spark学习_05_Spark GraphX 应用解析小结