spark的远程到集群及基础使用方法

Posted hymmiaomiao

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark的远程到集群及基础使用方法相关的知识,希望对你有一定的参考价值。

1)、----登录spark
ssh [email protected]
/home/mr/spark/bin/beeline -u "jdbc:hive2://133.37.23.88:18000/zxvmax" -n mr -p ""
2)、----在spark——shell 新开辟一个空间跑任务,(在跑sql时间过长的情况)
/home/mr/spark/bin/spark-shell --master spark://zdh234:7077 --executor-memory 6g --total-executor-cores 20 --driver-memory 3g
sqlContext.sql("use default").collect;

3)、----在装有spark组件的服务器开一个sparksql
ps -ef | grep watchdog
开启sparksql的脚本python /home/mr/bin/spark/sparksql_watchdog.py start

以上是关于spark的远程到集群及基础使用方法的主要内容,如果未能解决你的问题,请参考以下文章

使用 Spark 查询位于远程集群上的 Hive 数据

在远程 Yarn 集群上使用 spark 从 S3 访问文件时出现问题

二次开发Spark实现JDBC读取远程租户集群Hive数据并落地到本集群Hive的Hive2Hive数据集成Java

二次开发Spark实现JDBC读取远程租户集群Hive数据并落地到本集群Hive的Hive2Hive数据集成Java

将 Spark 作业提交到 Spark 集群

Kafka:ZK+Kafka+Spark Streaming集群环境搭建(二十二)Spark Streaming接收流数据及使用窗口函数