计算机毕业设计中在spark下跑python程序

Posted 帮我毕业网

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了计算机毕业设计中在spark下跑python程序相关的知识,希望对你有一定的参考价值。

点击上方“蓝字”,关注我们.

编写python测试程序

#test.py文件
# -*- coding:utf-8 -*-
import os
import sys
#配置环境变量并导入pyspark
os.environ['SPARK_HOME'] = r'/opt/moudles/spark-1.6.1'
sys.path.append("/opt/moudles/spark-1.6.1/python")
sys.path.append("/opt/moudles/spark-1.6.1/python/lib/py4j-0.9-src.zip")
from pyspark import SparkContext, SparkConf

appName ="spark_1" #应用程序名称
master= "spark://hadoop01:7077"#hadoop01为主节点hostname,请换成自己的主节点主机名称
conf = SparkConf().setAppName(appName).setMaster(master)
sc = SparkContext(conf=conf)

data = [1, 2, 3, 4, 5]
distData = sc.parallelize(data)
res = distData.reduce(lambda a, b: a + b)
print("===========================================")
print (res)
print("===========================================")

执行python程序

执行如下命令

python test.py

执行与结果分别如下图所示:
计算机毕业设计中在spark下跑python程序

计算机毕业设计中在spark下跑python程序




计算机毕业设计中在spark下跑python程序

更多请关注小编继续了解,免费赠送网页设计作业源代码哦!


如需要精品网页设计作业和毕业设计作品

联系QQ:2656895362进行咨询

网站地址:
http://www.85work.com/
扫码关注最新动态
更多精彩,点击下方“ 阅读原文”查看。




以上是关于计算机毕业设计中在spark下跑python程序的主要内容,如果未能解决你的问题,请参考以下文章

如何在 python 中在 spark notebook 上使用 pandas(dashDB 上的数据)

图文详解 Spark 总体架构 [禅与计算机程序设计艺术]

代写python,代写python编程,python代写,python编程代写,留学生python代写

哪里有基于SSM的毕业进存销管理系统代做

NPL程序设计语言,CNN,RNN,LSTM ,spark和hadoop的区别,云计算,kubeflow

各类计算机毕业设计代做,包代包过!