Pyspark 找不到数据源:kafka

Posted

技术标签:

【中文标题】Pyspark 找不到数据源:kafka【英文标题】:Pyspark Failed to find data source: kafka 【发布时间】:2020-03-02 12:48:29 【问题描述】:

我正在研究 Kafka 流媒体并尝试将其与 Apache Spark 集成。但是,在运行时,我遇到了问题。我收到以下错误。

这是我正在使用的命令。

df_TR = Spark.readStream.format("kafka").option("kafka.bootstrap.servers", "localhost:9092").option("subscribe", "taxirides").load()

错误:

Py4JJavaError:调用 o77.load 时出错。:java.lang.ClassNotFoundException:找不到数据源:kafka。请在http://spark.apache.org/third-party-projects.html查找包

我该如何解决这个问题?

注意:我在 Jupyter Notebook 中运行它

findspark.init('/home/karan/spark-2.1.0-bin-hadoop2.7')
import pyspark
from pyspark.sql import SparkSession
Spark = SparkSession.builder.appName('KafkaStreaming').getOrCreate()
from pyspark.sql.types import *
from pyspark.streaming import StreamingContext
from pyspark.streaming.kafka import KafkaUtils

到这里为止一切都运行良好(以上代码)

df_TR = Spark.readStream.format("kafka").option("kafka.bootstrap.servers", "localhost:9092").option("subscribe", "taxirides").load()

这是出错的地方(代码上方)。

我关注的博客:https://www.adaltas.com/en/2019/04/18/spark-streaming-data-pipelines-with-structured-streaming/

【问题讨论】:

【参考方案1】:

不清楚您是如何运行代码的。继续阅读博客,你会看到

spark-submit \
  ...
  --packages org.apache.spark:spark-sql-kafka-0-10_2.11:2.4.0 \
  sstreaming-spark-out.py

您似乎错过了添加 --packages 标志

在 Jupyter 中,你可以添加这个

import os

# setup arguments
os.environ['PYSPARK_SUBMIT_ARGS'] = '--packages org.apache.spark:spark-sql-kafka-0-10_2.11:2.4.0'

# initialize spark
import pyspark
findspark.init()

注意:_2.11:2.4.0 需要与您的 Scala 和 Spark 版本保持一致...根据问题,您的应该是 Spark 2.1.0

【讨论】:

添加导入操作系统后,我现在遇到另一个错误。 Py4JJavaError:调用 o27.load 时出错。 : java.lang.ClassNotFoundException: 找不到数据源: kafka. @PKernel 这是因为spark-sql-kafka的版本和你当前运行的spark版本不匹配。

以上是关于Pyspark 找不到数据源:kafka的主要内容,如果未能解决你的问题,请参考以下文章

找不到pyspark数据框保存到配置单元表

将 Pyspark 与 Kafka 连接起来

Pyspark 在 docker 中找不到 csv

PySpark 找不到适合 jdbc 的驱动程序:mysql://dbhost

Pyspark:java.lang.ClassNotFoundException:找不到数据源:com.microsoft.sqlserver.jdbc.spark(SQL 数据池)

pyspark:找不到本地文件