20180204今日知识之kafka+flume

Posted Jinglaji

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了20180204今日知识之kafka+flume相关的知识,希望对你有一定的参考价值。

Kafka是由Apache软件基金会开发的一个开源流处理平台,由Scala和Java编写。Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。 这种动作(网页浏览,搜索和其他用户的行动)是在现代网络上的许多社会功能的一个关键因素。 这些数据通常是由于吞吐量的要求而通过处理日志和日志聚合来解决。 对于像Hadoop的一样的日志数据和离线分析系统,但又要求实时处理的限制,这是一个可行的解决方案。Kafka的目的是通过Hadoop的并行加载机制来统一线上和离线的消息处理,也是为了通过集群来提供实时的消费。

Kafka是一种高吞吐量的分布式发布订阅消息系统,有如下特性:

1.通过磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能。

2.高吞吐量:即使是非常普通的硬件Kafka也可以支持每秒数百万的消息。

3.支持通过Kafka服务器和消费机集群来分区消息。

4.支持Hadoop并行数据加载。

Broker:Kafka集群包含一个或多个服务器,这种服务器被称为broker。

Topic:每条发布到Kafka集群的消息都有一个类别,这个类别被称为Topic。(物理上不同Topic的消息分开存储,逻辑上一个Topic的消息虽然保存于一个或多个broker上但用户只需指定消息的Topic即可生产或消费数据而不必关心数据存于何处)

Partition:Partition是物理上的概念,每个Topic包含一个或多个Partition.

Producer:负责发布消息到Kafka broker

Consumer:消息消费者,向Kafka broker读取消息的客户端。

Consumer Group:每个Consumer属于一个特定的Consumer Group(可为每个Consumer指定group name,若不指定group name则属于默认的group)。

https://www.cnblogs.com/liuming1992/p/6423458.html这个链接是kafka/bin/下面的常用指令解读。作为参考。

Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。

1. Flume可以高效率的将多个网站服务器中收集的日志信息存入HDFS/HBase中

2. 使用Flume,我们可以将从多个服务器中获取的数据迅速的移交给Hadoop中

3. 除了日志信息,Flume同时也可以用来接入收集规模宏大的社交网络节点事件数据,比如facebook,twitter,电商网站如亚马逊,flipkart等

4. 支持各种接入资源数据的类型以及接出数据类型

5. 支持多路径流量,多管道接入流量,多管道接出流量,上下文路由等

6. 可以被水平扩展

Agent主要由:source,channel,sink三个组件组成。在flume/conf目录下查看的配置文件,有以下3个。

Source:

从数据发生器接收数据,并将接收的数据以Flume的event格式传递给一个或者多个通道channal,Flume提供多种数据接收的方式,比如Avro,Thrift,twitter1%等

Channel:

channal是一种短暂的存储容器,它将从source处接收到的event格式的数据缓存起来,直到它们被sinks消费掉,它在source和sink间起着一共桥梁的作用,channal是一个完整的事务,这一点保证了数据在收发的时候的一致性. 并且它可以和任意数量的source和sink链接. 支持的类型有: JDBC channel , File System channel , Memort channel等.

sink:

sink将数据存储到集中存储器比如Hbase和HDFS,它从channals消费数据(events)并将其传递给目标地. 目标地可能是另一个sink,也可能HDFS,HBase。

flume中主要有以下3处注意,配置文件,flume.log存放目录,启动文件中对应配置文件定义。

问题解决:

1.在kafka+flume,这2个消息中间件组合时,如果对写入kafka的日志信息,flume并不能全部采集,则要考虑启动多个flume采集代理。

2.消费kafka有数据,但是不能确定flume是否采集到,可以针对配置文件的sink,写一个tofile,写一个文件到本地的操作。

以上是结合百科,及个人接触的一些简单理解。


以上是关于20180204今日知识之kafka+flume的主要内容,如果未能解决你的问题,请参考以下文章

打怪升级之小白的大数据之旅(七十四)<初识Kafka>

打怪升级之小白的大数据之旅(七十四)<初识Kafka>

打怪升级之小白的大数据之旅(七十四)<初识Kafka>

大数据之Flume+Kafka

Flume 学习笔记之 Flume NG+Kafka整合

Flume简介与使用——Kafka Sink消费数据之Kafka安装