向spark集群提交消费kafka应用时kafka鉴权配置问题
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了向spark集群提交消费kafka应用时kafka鉴权配置问题相关的知识,希望对你有一定的参考价值。
提交消费kafka应用里面包含sasl.jaas.config,通常需要配置文件。但是打成jar包后的应用,通过classload读不到jar包中配置文件。
需要初始化kafka时增加properties属性。
kafkaParams.put("sasl.jaas.config", "xxxx required "+ " accessKey="xxxx" "+ " securityKey="xxxxx";");
换行,冒号,引号都不能少
注意kafka的依赖为:
<dependency>
<groupId>org.apache.kafka</groupId>
<artifactId>kafka-clients</artifactId>
<version>1.0.0</version>
</dependency>
同时要去掉spark-streaming-kafka中的kafka依赖
<!-- 去掉kafka 0.10.0.1 的依赖-->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming-kafka-0-10_2.11</artifactId>
<version>2.3.1</version>
<exclusions>
<exclusion>
<groupId>org.apache.kafka</groupId>
<artifactId>kafka-clients</artifactId>
</exclusion>
</exclusions>
</dependency>
以上是关于向spark集群提交消费kafka应用时kafka鉴权配置问题的主要内容,如果未能解决你的问题,请参考以下文章
请教一个关于使用spark 读取kafka只能读取一个分区数据的问题
spark开启推测机制后数据源是kafka,出现重复消费数据怎么解决