大数据面试题:Flume核心高频面试题

Posted Lansonli

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了大数据面试题:Flume核心高频面试题相关的知识,希望对你有一定的参考价值。

文章目录

Flume核心高频面试题

一、Flume有哪些组件,flume的source、channel、sink具体是做什么的

二、你是如何实现flume数据传输的监控的

三、Flume的source,sink,channel的作用?你们source是什么类型?

四、Flume参数调优

1、Source

2、Channel

3、Sink

五、Flume的事务机制

六、Flume采集数据会丢失吗?

七、Flume使用场景

八、Flume丢包问题

九、数据怎么采集到Kafka,实现方式

十、Flume管道内存,Flume宕机了数据丢失怎么解决

十一、Flume不采集Nginx日志,通过Logger4j采集日志,优缺点

十二、Flume和Kafka采集日志区别,采集日志时中间停了,怎么记录之前的日志

十三、详细介绍Flume有哪些组件?

十四、你是如何实现Flume数据传输断点续传?


Flume核心高频面试题

一、Flume有哪些组件,flume的source、channel、sink具体是做什么的

source组件是专门用来收集数据的,可以处理各种类型、各种格式的日志数据,包括avro、thrift、exec、jms、 spooling directory、netcat、sequence generator、syslog、http、legacy

source组件把数据收集来以后,临时存放在channel中,即channel组件在agent中是专门用来存放临时数据的——对采集到的数据进行简单的缓存,可以存放在memory、jdbc、file等等。

sink组件是用于把数据发送到目的地的组件,目的地包括hdfs、logger、avro、thrift、ipc、file、null、Hbase、 solr、自定义。

二、你是如何实现flume数据传输的监控的

使用第三方框架Ganglia实时监控flume。

三、Flume的source,sink,channel的作用?你们source是什么类型?

source组件是专门用来收集数据的,可以处理各种类型、各种格式的日志数据,包括avro、thrift、exec、jms、 spooling directory、netcat、sequence generator、syslog、http、legacy

source组件把数据收集来以后,临时存放在channel中,即channel组件在agent中是专门用来存放临时数据的 —— 对采集到的数据进行简单的缓存,可以存放在memory、jdbc、file等等。

sink组件是用于把数据发送到目的地的组件,目的地包括hdfs、logger、avro、thrift、ipc、file、null、Hbase、 solr、自定义。

监控后台日志:exec

监控后台产生日志的端口:netcat

四、Flume参数调优

1、Source

增加Source个数(使用Tair Dir Source时可增加FileGroups个数)可以增大Source的读取数据的能力。例如: 当某一个目录产生的文件过多时需要将这个文件目录拆分成多个文件目录,同时配置好多个Source 以保证Source有足够的能力获取到新产生的数据。

batchSize参数决定Source一次批量运输到Channel的event条数,适当调大这个参数可以提高Source搬运Event到Channel时的性能。

2、Channel

type 选择memory时Channel的性能最好,但是如果Flume进程意外挂掉可能会丢失数据。type选择file时Channel的容错性更好,但是性能上会比memory channel差。

使用file Channel时dataDirs配置多个不同盘下的目录可以提高性能。

Capacity 参数决定Channel可容纳最大的event条数。transactionCapacity 参数决定每次Source往channel里面写的最大event条数和每次Sink从channel里面读的最大event条数。transactionCapacity需要大于Source和Sink的batchSize参数。

3、Sink

增加Sink的个数可以增加Sink消费event的能力。Sink也不是越多越好够用就行,过多的Sink会占用系统资源, 造成系统资源不必要的浪费。

batchSize参数决定Sink一次批量从Channel读取的event条数,适当调大这个参数可以提高Sink从Channel搬出event的性能。

五、Flume的事务机制

Flume的事务机制(类似数据库的事务机制):Flume使用两个独立的事务分别负责从Soucrce到Channel,以及从Channel到Sink的事件传递。比如spooling directory source 为文件的每一行创建一个事件,一旦事务中所有的事件全部传递到Channel且提交成功,那么Soucrce就将该文件标记为完成。同理,事务以类似的方式处理从Channel到Sink的传递过程,如果因为某种原因使得事件无法记录,那么事务将会回滚。且所有的事件都会保持到Channel中,等待重新传递。

六、Flume采集数据会丢失吗?

不会,Channel存储可以存储在File中,数据传输自身有事务。

七、Flume使用场景

线上数据一般主要是落地(存储到磁盘)或者通过socket传输给另外一个系统,这种情况下,你很难推动线上应用或服务去修改接口,实现直接向kafka里写数据,这时候你可能就需要flume这样的系统帮你去做传输。

八、Flume丢包问题

单机upd的flume source的配置,100+M/s数据量,10w qps flume就开始大量丢包,因此很多公司在搭建系统时,抛弃了Flume,自己研发传输系统,但是往往会参考Flume的Source-Channel-Sink模式。

一些公司在Flume工作过程中,会对业务日志进行监控,例如Flume agent中有多少条日志,Flume到Kafka后有多少条日志等等,如果数据丢失保持在1%左右是没有问题的,当数据丢失达到5%左右时就必须采取相应措施。

九、数据怎么采集到Kafka,实现方式

使用官方提供的flumeKafka插件,插件的实现方式是自定义了flume的sink,将数据从channle中取出,通过kafka的producer写入到kafka中,可以自定义分区等。

十、Flume管道内存,Flume宕机了数据丢失怎么解决

1、Flume的channel分为很多种,可以将数据写入到文件。

2、防止非首个agent宕机的方法数可以做集群或者主备。

十一、Flume不采集Nginx日志,通过Logger4j采集日志,优缺点

优点:nginx的日志格式是固定的,但是缺少sessionid,通过logger4j采集的日志是带有sessionid的,而session可以通过redis共享,保证了集群日志中的同一session落到不同的tomcat时,sessionId还是一样的,而且logger4j的方式比较稳定,不会宕机。

缺点:不够灵活,logger4j的方式和项目结合过于紧密,而flume的方式比较灵活,拔插式比较好,不会影响项目性能。

 

十二、Flume和Kafka采集日志区别,采集日志时中间停了,怎么记录之前的日志

Flume采集日志是通过流的方式直接将日志收集到存储层,而kafka试讲日志缓存在kafka集群,待后期可以采集到存储层。

Flume采集中间停了,可以采用文件的方式记录之前的日志,而kafka是采用offset的方式记录之前的日志。

十三、详细介绍Flume有哪些组件?

1、source:用于采集数据,Source是产生数据流的地方,同时Source会将产生的数据流传输到Channel,这个有点类似于Java IO部分的Channel。

2、channel:用于桥接Sources和Sinks,类似于一个队列。

3、sink:从Channel收集数据,将数据写到目标源(可以是下一个Source,也可以是HDFS或者HBase)。

十四、你是如何实现Flume数据传输断点续传?

TailDirSource支持断点续传。通过Json格式文件写入上次传递位置信息,断点续传从下个位置开始。


  • 📢博客主页:https://lansonli.blog.csdn.net
  • 📢欢迎点赞 👍 收藏 ⭐留言 📝 如有错误敬请指正!
  • 📢本文由 Lansonli 原创,首发于 CSDN博客🙉
  • 📢停下休息的时候不要忘了别人还在奔跑,希望大家抓紧时间学习,全力奔赴更美好的生活✨

以上是关于大数据面试题:Flume核心高频面试题的主要内容,如果未能解决你的问题,请参考以下文章

大数据高频面试题:HDFS核心高频面试题

大数据面试题:ZooKeeper核心高频面试题

大数据面试题:MapReduce核心高频面试题

大数据面试题:Hadoop优化核心高频面试题

大数据面试题:Hadoop的联邦机制核心高频面试题

大数据面试题:Yarn核心高频面试题