Spark与MongoDB连接
Posted genghenggao
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark与MongoDB连接相关的知识,希望对你有一定的参考价值。
系统:
Ubuntu_18.01
Spark_2.3.1
Scala_2.12.6
MongoDB_3.6.3
参考MongoDB官方网址:https://github.com/mongodb/mongo-spark
$ git clone https://github.com/mongodb/mongo-spark.git
$ cd mongo-spark
$ ./sbt check (这个地方费点时间,耐心等待)
$ ./sbt +publish-signed
$ ./sbt +spPublish
本文使用mongodb官方的MongoDB Connector for Apache Spark,先下载MongoDB Connector for Apache Spark 。
MongoDB Connector for Apache Spark的使用方法非常简单,到spark的安装的bin目录下执行下面语句:
cd /usr/local/spark/bin
按照官方文档启动Spark Connector Scala Guide
./spark-shell --conf "spark.mongodb.input.uri=mongodb://localhost:27017/test.test?authSource=admin" --conf "spark.mongodb.output.uri=mongodb://localhost:27017/test.test?authSource=admin" --packages org.mongodb.spark:mongo-spark-connector_2.12:2.4.0
参考:http://michaeljian.top/2017/12/15/Apache-Spark%E8%BF%9E%E6%8E%A5MongoDB/
以上是关于Spark与MongoDB连接的主要内容,如果未能解决你的问题,请参考以下文章
无法序列化类 org.apache.hadoop.io.DoubleWritable - MongoDB Hadoop 连接器 + Spark + Python