spark配置-独立应用程序
Posted iAthena
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark配置-独立应用程序相关的知识,希望对你有一定的参考价值。
cd sparkapp/
ls
find .
/usr/local/sbt/sbt package
package完成:
[email protected]:~/sparkapp$ ls
project
simple.sbt src
target
打包位置:
我们就可以将生成的 jar 包通过 spark-submit 提交到 Spark 中运行:
/usr/local/spark/bin/spark-submit --class "SimpleApp" ~/sparkapp/target/scala-2.10/simple-project_2.10-1.0.jar
/usr/local/spark/bin/spark-submit --class "SimpleApp" ~/sparkapp/target/scala-2.10/simple-project_2.10-1.0.jar 2>&1 | grep "Lines with a:"
//精简信息查看运行结果。
- 如果想对 Spark 的 API 有更深入的了解,可查看的 Spark 编程指南(Spark Programming Guide);
- 如果你想对 Spark SQL 的使用有更多的了解,可以查看 Spark SQL、DataFrames 和 Datasets 指南;
- 如果你想对 Spark Streaming 的使用有更多的了解,可以查看 Spark Streaming 编程指南;
- 如果需要在集群环境中运行 Spark 程序,可查看官网的 Spark 集群部署
参考/转载:http://www.powerxing.com/spark-quick-start-guide/
!--more-->
以上是关于spark配置-独立应用程序的主要内容,如果未能解决你的问题,请参考以下文章
通过独立集群中的 REST 作业提交的 spark.master 配置被忽略