kafka中生产者和消费者API
Posted ahu-lichang
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了kafka中生产者和消费者API相关的知识,希望对你有一定的参考价值。
使用idea实现相关API操作,先要再pom.xml重添加Kafka依赖:
<dependency> <groupId>org.apache.kafka</groupId> <artifactId>kafka_2.8.2</artifactId> <version>0.8.1</version> <exclusions> <exclusion> <artifactId>jmxtools</artifactId> <groupId>com.sun.jdmk</groupId> </exclusion> <exclusion> <artifactId>jmxri</artifactId> <groupId>com.sun.jmx</groupId> </exclusion> <exclusion> <artifactId>jms</artifactId> <groupId>javax.jms</groupId> </exclusion> <exclusion> <groupId>org.apache.zookeeper</groupId> <artifactId>zookeeper</artifactId> </exclusion> <exclusion> <groupId>org.slf4j</groupId> <artifactId>slf4j-log4j12</artifactId> </exclusion> <exclusion> <groupId>org.slf4j</groupId> <artifactId>slf4j-api</artifactId> </exclusion> </exclusions> </dependency>
Kafka生产者API:
1 package cn.itcast.storm.kafka.simple; 2 3 import kafka.javaapi.producer.Producer; 4 import kafka.producer.KeyedMessage; 5 import kafka.producer.ProducerConfig; 6 7 import java.util.Properties; 8 import java.util.UUID; 9 10 /** 11 * 这是一个简单的Kafka producer代码 12 * 包含两个功能: 13 * 1、数据发送 14 * 2、数据按照自定义的partition策略进行发送 15 * 16 * 17 * KafkaSpout的类 18 */ 19 public class KafkaProducerSimple { 20 public static void main(String[] args) { 21 /** 22 * 1、指定当前kafka producer生产的数据的目的地 23 * 创建topic可以输入以下命令,在kafka集群的任一节点进行创建。 24 * bin/kafka-topics.sh --create --zookeeper zk01:2181 --replication-factor 1 --partitions 1 --topic test 25 */ 26 String TOPIC = "orderMq"; 27 /** 28 * 2、读取配置文件 29 */ 30 Properties props = new Properties(); 31 /* 32 * key.serializer.class默认为serializer.class 33 */ 34 props.put("serializer.class", "kafka.serializer.StringEncoder"); 35 /* 36 * kafka broker对应的主机,格式为host1:port1,host2:port2 37 */ 38 props.put("metadata.broker.list", "kafka01:9092,kafka02:9092,kafka03:9092"); 39 /* 40 * request.required.acks,设置发送数据是否需要服务端的反馈,有三个值0,1,-1 41 * 0,意味着producer永远不会等待一个来自broker的ack,这就是0.7版本的行为。 42 * 这个选项提供了最低的延迟,但是持久化的保证是最弱的,当server挂掉的时候会丢失一些数据。 43 * 1,意味着在leader replica已经接收到数据后,producer会得到一个ack。 44 * 这个选项提供了更好的持久性,因为在server确认请求成功处理后,client才会返回。 45 * 如果刚写到leader上,还没来得及复制leader就挂了,那么消息才可能会丢失。 46 * -1,意味着在所有的ISR都接收到数据后,producer才得到一个ack。 47 * 这个选项提供了最好的持久性,只要还有一个replica存活,那么数据就不会丢失 48 */ 49 props.put("request.required.acks", "1"); 50 /* 51 * 可选配置,如果不配置,则使用默认的partitioner partitioner.class 52 * 默认值:kafka.producer.DefaultPartitioner 53 * 用来把消息分到各个partition中,默认行为是对key进行hash。 54 */ 55 props.put("partitioner.class", "cn.itcast.storm.kafka.MyLogPartitioner"); 56 // props.put("partitioner.class", "kafka.producer.DefaultPartitioner"); 57 /** 58 * 3、通过配置文件,创建生产者 59 */ 60 Producer<String, String> producer = new Producer<String, String>(new ProducerConfig(props)); 61 /** 62 * 4、通过for循环生产数据 63 */ 64 for (int messageNo = 1; messageNo < 100000; messageNo++) { 65 // String messageStr = new String(messageNo + "注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey," + 66 // "注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发" + 67 // "注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发" + 68 // "注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发" + 69 // "注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发" + 70 // "注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发" + 71 // "注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发" + 72 // "注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发" + 73 // "用来配合自定义的MyLogPartitioner进行数据分发"); 74 75 /** 76 * 5、调用producer的send方法发送数据 77 * 注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发 78 */ 79 producer.send(new KeyedMessage<String, String>(TOPIC, messageNo + "", "appid" + UUID.randomUUID() + "itcast")); 80 } 81 } 82 }
Kafka消费者API:
1 package cn.itcast.storm.kafka.simple; 2 3 import kafka.consumer.Consumer; 4 import kafka.consumer.ConsumerConfig; 5 import kafka.consumer.ConsumerIterator; 6 import kafka.consumer.KafkaStream; 7 import kafka.javaapi.consumer.ConsumerConnector; 8 import kafka.message.MessageAndMetadata; 9 10 import java.util.HashMap; 11 import java.util.List; 12 import java.util.Map; 13 import java.util.Properties; 14 import java.util.concurrent.ExecutorService; 15 import java.util.concurrent.Executors; 16 17 public class KafkaConsumerSimple implements Runnable { 18 public String title; 19 public KafkaStream<byte[], byte[]> stream; 20 public KafkaConsumerSimple(String title, KafkaStream<byte[], byte[]> stream) { 21 this.title = title; 22 this.stream = stream; 23 } 24 @Override 25 public void run() { 26 System.out.println("开始运行 " + title); 27 ConsumerIterator<byte[], byte[]> it = stream.iterator(); 28 /** 29 * 不停地从stream读取新到来的消息,在等待新的消息时,hasNext()会阻塞 30 * 如果调用 `ConsumerConnector#shutdown`,那么`hasNext`会返回false 31 * */ 32 while (it.hasNext()) { 33 MessageAndMetadata<byte[], byte[]> data = it.next(); 34 String topic = data.topic(); 35 int partition = data.partition(); 36 long offset = data.offset(); 37 String msg = new String(data.message()); 38 System.out.println(String.format( 39 "Consumer: [%s], Topic: [%s], PartitionId: [%d], Offset: [%d], msg: [%s]", 40 title, topic, partition, offset, msg)); 41 } 42 System.out.println(String.format("Consumer: [%s] exiting ...", title)); 43 } 44 45 public static void main(String[] args) throws Exception{ 46 Properties props = new Properties(); 47 props.put("group.id", "dashujujiagoushi"); 48 props.put("zookeeper.connect", "zk01:2181,zk02:2181,zk03:2181"); 49 props.put("auto.offset.reset", "largest"); 50 props.put("auto.commit.interval.ms", "1000"); 51 props.put("partition.assignment.strategy", "roundrobin"); 52 ConsumerConfig config = new ConsumerConfig(props); 53 String topic1 = "orderMq"; 54 String topic2 = "paymentMq"; 55 //只要ConsumerConnector还在的话,consumer会一直等待新消息,不会自己退出 56 ConsumerConnector consumerConn = Consumer.createJavaConsumerConnector(config); 57 //定义一个map 58 Map<String, Integer> topicCountMap = new HashMap<>(); 59 topicCountMap.put(topic1, 3); 60 //Map<String, List<KafkaStream<byte[], byte[]>> 中String是topic, List<KafkaStream<byte[], byte[]>是对应的流 61 Map<String, List<KafkaStream<byte[], byte[]>>> topicStreamsMap = consumerConn.createMessageStreams(topicCountMap); 62 //取出 `kafkaTest` 对应的 streams 63 List<KafkaStream<byte[], byte[]>> streams = topicStreamsMap.get(topic1); 64 //创建一个容量为4的线程池 65 ExecutorService executor = Executors.newFixedThreadPool(3); 66 //创建20个consumer threads 67 for (int i = 0; i < streams.size(); i++) 68 executor.execute(new KafkaConsumerSimple("消费者" + (i + 1), streams.get(i))); 69 } 70 }
kafka自定义patition:
1 package cn.itcast.storm.kafka; 2 3 import kafka.producer.Partitioner; 4 import kafka.utils.VerifiableProperties; 5 import org.apache.log4j.Logger; 6 7 8 public class MyLogPartitioner implements Partitioner { 9 private static Logger logger = Logger.getLogger(MyLogPartitioner.class); 10 11 public MyLogPartitioner(VerifiableProperties props) { 12 } 13 14 public int partition(Object obj, int numPartitions) { 15 return Integer.parseInt(obj.toString())%numPartitions; 16 // return 1; 17 } 18 19 }
以上是关于kafka中生产者和消费者API的主要内容,如果未能解决你的问题,请参考以下文章