spark启动问题,发现任务都是在localhost下面运行的,原来启动spark-shell的时候需要带主节点的参数

Posted 诸葛小四

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark启动问题,发现任务都是在localhost下面运行的,原来启动spark-shell的时候需要带主节点的参数相关的知识,希望对你有一定的参考价值。

在Spark 集群上运行一个应用,只需通过master的 spark://IP:PORT 链接传递到SparkContext构造器

在集群上运行交互式的Spark 命令, 运行如下命令:

MASTER=spark://IP:PORT ./spark-shell

注意,如果你在一个 spark集群上运行了spark-shell脚本,spark-shell 将通过在conf/spark-env.sh下的SPARK_MASTER_IP和SPARK_MASTER_PORT自动设置MASTER .

你也可以传递一个参数-c <numCores> 来控制 spark-shell 在集群上使用的核心数量

以上是关于spark启动问题,发现任务都是在localhost下面运行的,原来启动spark-shell的时候需要带主节点的参数的主要内容,如果未能解决你的问题,请参考以下文章

我启动windows任务管理器,发现有的程序明明没有运行,但是在进程里还是会有不少的程序?是后台吗?

在Java应用中通过SparkLauncher启动Spark任务

记2018最后一次问题诊断-Spark on Yarn所有任务运行失败

Spark 中的阶段是如何划分为任务的?

SpringBoot多线程并发定时任务

Spark2.2(三十九):如何根据appName监控spark任务,当任务不存在则启动(任务存在当超过多久没有活动状态则kill,等待下次启动)