Spark与MongoDB连接

Posted genghenggao

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark与MongoDB连接相关的知识,希望对你有一定的参考价值。

系统:

Ubuntu_18.01

Spark_2.3.1

Scala_2.12.6

MongoDB_3.6.3

参考MongoDB官方网址:https://github.com/mongodb/mongo-spark

$ git clone https://github.com/mongodb/mongo-spark.git
$ cd mongo-spark
$ ./sbt check  (这个地方费点时间,耐心等待)
$ ./sbt +publish-signed
$ ./sbt +spPublish

 

本文使用mongodb官方的MongoDB Connector for Apache Spark,先下载MongoDB Connector for Apache Spark 。

MongoDB Connector for Apache Spark的使用方法非常简单,到spark的安装的bin目录下执行下面语句:

cd /usr/local/spark/bin

按照官方文档启动Spark Connector Scala Guide

./spark-shell  --conf "spark.mongodb.input.uri=mongodb://localhost:27017/test.test?authSource=admin" --conf "spark.mongodb.output.uri=mongodb://localhost:27017/test.test?authSource=admin" --packages org.mongodb.spark:mongo-spark-connector_2.12:2.4.0

 

 

参考:http://michaeljian.top/2017/12/15/Apache-Spark%E8%BF%9E%E6%8E%A5MongoDB/



以上是关于Spark与MongoDB连接的主要内容,如果未能解决你的问题,请参考以下文章

spark连接MongoDB

无法序列化类 org.apache.hadoop.io.DoubleWritable - MongoDB Hadoop 连接器 + Spark + Python

MongoDB Spark连接器中的withPipeline函数在哪里

Spark闭包与序列化

MongoDB PHP

无法从使用 mongo spark 连接器读取的 spark DF 中显示/写入。