向spark集群提交消费kafka应用时kafka鉴权配置问题

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了向spark集群提交消费kafka应用时kafka鉴权配置问题相关的知识,希望对你有一定的参考价值。

提交消费kafka应用里面包含sasl.jaas.config,通常需要配置文件。但是打成jar包后的应用,通过classload读不到jar包中配置文件。

需要初始化kafka时增加properties属性。


kafkaParams.put("sasl.jaas.config", "xxxx required
"+
                " accessKey="xxxx"
"+
                " securityKey="xxxxx";");

换行,冒号,引号都不能少


注意kafka的依赖为:

    <dependency>
      <groupId>org.apache.kafka</groupId>
      <artifactId>kafka-clients</artifactId>
      <version>1.0.0</version>
     </dependency>


    同时要去掉spark-streaming-kafka中的kafka依赖


    <!-- 去掉kafka 0.10.0.1 的依赖-->
      <dependency>
          <groupId>org.apache.spark</groupId>
          <artifactId>spark-streaming-kafka-0-10_2.11</artifactId>
          <version>2.3.1</version>
          <exclusions>
          <exclusion>
           <groupId>org.apache.kafka</groupId>
           <artifactId>kafka-clients</artifactId>
          </exclusion>
          </exclusions>
      </dependency>

以上是关于向spark集群提交消费kafka应用时kafka鉴权配置问题的主要内容,如果未能解决你的问题,请参考以下文章

请教一个关于使用spark 读取kafka只能读取一个分区数据的问题

spark开启推测机制后数据源是kafka,出现重复消费数据怎么解决

烧瓶 gevent 线程卡在 kafka 消费者上

SpringBoot整合Kafka下

Kafka:ZK+Kafka+Spark Streaming集群环境搭建(十七)待整理

Kafka:ZK+Kafka+Spark Streaming集群环境搭建(十九)待整理