spark连接MongoDB

Posted 飞末

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark连接MongoDB相关的知识,希望对你有一定的参考价值。

1.sbt内容:

name := "data_ana"
version := "1.0"
scalaVersion := "2.11.8"
libraryDependencies ++= Seq(
"org.apache.spark" %% "spark-core" % "2.2.0",
"org.apache.spark" %% "spark-sql" % "2.2.0",
"org.apache.hadoop" % "hadoop-client" % "2.7.3",
"org.mongodb" % "mongo-java-driver" % "3.4.2",
"org.mongodb.mongo-hadoop" % "mongo-hadoop-core" % "2.0.2",
"org.mongodb.spark" %% "mongo-spark-connector" % "2.2.0"
)
2.简单的测试代码  
import com.mongodb.spark._
import org.apache.spark.sql.SparkSession
object mongdb_test {
def main(args: Array[String]): Unit = {
val spark = SparkSession
.builder()
.master("local")
.appName("lining")
.config("spark.mongodb.input.uri", "mongodb://name:[email protected]:27017/database_name.table_name")
.config("spark.mongodb.output.uri", "mongodb://name:[email protected]:27017/database_name.table_name")
    .getOrCreate()
    val lines=MongoSpark.load(spark)
lines.printSchema()
lines.show()
}
}
3.相关的链接  
    https://docs.mongodb.com/spark-connector/current/scala/datasets-and-sql/
    http://spark.apache.org/docs/2.1.0/sql-programming-guide.html
    http://www.thebigdata.cn/MongoDB/31116.html





























以上是关于spark连接MongoDB的主要内容,如果未能解决你的问题,请参考以下文章

spark连接MongoDB

无法序列化类 org.apache.hadoop.io.DoubleWritable - MongoDB Hadoop 连接器 + Spark + Python

MongoDB Spark连接器中的withPipeline函数在哪里

MongoDB PHP

无法从使用 mongo spark 连接器读取的 spark DF 中显示/写入。

如何将代码片段存储在 mongodb 中?