译 ELK日志中心分布式架构的逐步演化
Posted 168大数据
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了译 ELK日志中心分布式架构的逐步演化相关的知识,希望对你有一定的参考价值。
听说,这里有最具价值的大数据案例、
大数据实践经验、大数据创新思维,
更有你想融入的大数据高端人脉圈!
据说,国内近6成大数据精英都在这!
当前环境
logstash:5.2
说明
记得写 “基于ELK+Filebeat搭建日志中心” 时,有朋友跟我说:“你的日志中心缺少了消息队列。” 是的,没有考虑。因为暂时用不到,架构的演变一定是根据业务的发展逐步完成的。我觉得任何东西,太少或太过都未必是好事。构架能满足公司当前的发展,那就是好的。
当然我不是指架构可以随意设计,只要满足需求就好。我们设计的架构,满足现有需求当然是先决条件,但还得看得到可预见的未来,为架构的演进预留一定的扩展性。
所以架构既得满足公司业务,还要参考一些成熟的方案,不能生搬硬套。这也是我也这篇文章的原因,自知能力有限,要讲分布式我肯定讲不好,其中势必有很多坑。所以借鉴官网原文,给目前或今后要做分布式的同学一点建议(当然也包括我~)。
这里我不会对原文逐字翻译,会根据自己的理解,以我自己能看懂的表述来翻译给大家看。
原文链接
译文
概述
当Logstash的使用场景逐步演进时,我们之前的架构也将随之发生改变。本文讨论了在复杂度逐渐递增下的Logstash架构一系列的演变过程。我们先从一个最简单的架构开始,然后在此架构上来逐渐增加内容。本文的示例是将数据写入到了ES( Elasticsearch )集群,其实Logstash可以写的 非常多。
最简架构
Logstash最简单的架构可以由一个Logstash实例和一个ES实例组成,两者直接相连。按照Logstash的 ,我们使用了一个收集数据的 和一个数据写入ES的 ,最后按照实例配置文件上的固定配置,启动Logstash。配置文件中,INPUT插件与OUTPUT插件是必须的,且OUTPUT默认输出方式是stdout,FILTER是可选的,下文会讲到。
引入 Filters
当然,添加FILTER插件对性能是有一定影响的。这取决于FILTER插件执行的计算量,以及处理的日志大小。grok filter的正则计算尤其占用资源。解决资源消耗大的一种方式是利用计算机多核的特性进行并行计算。使用 -w 参数来设置 Logstash filter 任务的执行线程数。例如,bin/logstash -w 8 命令使用的是8个不同的线程来处理filter。
引入 Filebeat
是一款有Go语言编写的轻量级日志收集工具,主要作用是收集当前服务器上的日志,并将收集的数据输出到目标机器上进行进一步处理。Filebeat 使用 协议与Logstash实例进行通信。使用 来配置你的Logstash的实例,让其能够接收Beats传来的数据。
Filebeat使用的是源数据所在机器的计算资源,Beats input 插件最小化了Logstash实例的资源需求,这种架构对于有资源限制要求的场景来说,非常有用。
引入ES集群
Logstash 一般不与ES的单节点进行通信,而是和多个节点组成的ES集群进行通信,采用的协议默认是HTTP。
你可以使用ES提供的REST API接口向集群写入数据,传输的数据格式为JSON。使用REST接口在代码中不需要引入JAVA的客户端类或任何额外的JAR包。相比节点协议与传输格式,没有性能上的弊端。若要做到接口安全通信,可以使用 ,它支持SSL与HTTP basic的安全校验。
使用HTTP,可以将ES集群与Logstash实例相分离。 与此相反,节点协议把运行Logstash实例的机器作为一个运行中的ES节点,与ES集群连接在了一起。数据同步是将数据从一个节点传输至集群中的其余节点。当该机器作为集群的一部分,该段网络拓扑变得可用,对于使用相对少量持久连接的场景来说,使用节点协议是较合适的。
你也可以使用第三方的负载均衡硬件或软件,来处理Logstash与外部应用的连接。
注意:确保你的Logstash配置不直接连接到ES 上。将Logstash连接到客户端或数据节点上,来保护ES集群的稳定性。
使用消息队列处理吞吐量峰值
当Logstash接收数据的能力超过了ES集群处理数据的能力时,你可以使用消息队列来作为缓冲。默认情况下,当数据的处理速率低于接收速率,Logstash的接收将产生瓶颈。由于该瓶颈会导致事件在数据源中被缓冲,所以使用消息队列来抗压将成为你架构中的重要环节。
添加一个消息队列到你部署的Logstash中,对数据丢失也提供了一定的保护。当Logstash实例在消息队列中消费数据失败时,数据将会在另一个活跃的Logstash中重新消费。
目前市面上提供的第三方消息队列,如Redis,Kafka,RabbitMQ。Logstash都提供了相应的input、output插件与之做集成。当Logstash的部署中添加了消息队列,Logstash的处理将分为两个阶段:第一阶段(传输实例),负责处理数据采集,并将其存入消息队列;第二阶段(存储实例),从消息队列中获取数据,应用所配置的filter,将处理过的数据写入ES中。
采用多连接保证Logstash高可用
为了使Logstash架构更适应单节点不可用的情况,,你可以在数据源与Logstash集群间建立负载均衡。这个负载均衡管理与Logstash实例的连接,保证了在单个实例不可用的情况下,数据采集与处理的正常进行。
上面的架构中存在一种问题,每个Logstash实例都只提供一种INPUT。当某一个实例不可用时,该类型的数据将无法继续收集,例如RSS订阅或文件输入。为了使INPUT的处理更健壮,每个Logstash实例都要配置多个input通道,如下图:
该架构基于你配置的INPUT,可以并行工作。对于更多的INPUT输入,你可以增加更多的Logstash实例来进行水平扩展。这也增加了架构的可靠性,消除了单点故障。
Logstash的扩展
一个成熟的Logstash部署有以下几方面:
INPUT层从数据源中采集数据,由合适的input 插件组成。
消息队列作为数据采集的缓冲与故障转移的保护。
FILTER层从消息队列中获取数据进行解析和其他操作。
indexing层将处理的数据传输到ES。
这其中的每一层都可以通过增加计算资源进行扩展。随着你使用场景的发展与所需资源的增加,定期检查这些组件的性能。当Logstash一旦遇到输入的瓶颈,可考虑增加消息队列的存储。相反,通过增加更多的Logstash输出实例来增加ES集群的写入速率。
【51举荐】专注大数据人才精准推荐
想求职,51举荐免费发求职信!
想招聘,51举荐帮你发悬赏令!
金三银四 大数据人才求贤季!
这里是国内最专业的大数据、商业智能、数据仓库人才招聘与交流社区。
1) 极速招聘:880元 (现价380元不含发票)
A 每家公司最多发布3个职位,超过3个岗位必须走专项招聘
C 168大数据社群:投放四周,一周一次
E 168大数据网站头条发布,保留企业联系方式
2) 专场招聘:(头条2000,二条1500,三条500)
(现价头条1680元,二条680元 不含发票)
A 单独一个图文,职位数不限,图片,内容自定义,独家!
C 168大数据社群:投放四周,一周一次
E 168大数据网站头条发布,保留企业联系方式
3) 精准猎头服务:
收费详情请咨询微信:huiqiaodata
媒体合作、资源对接、大咖投稿请联系:link@bi168.cn
所有发布的招聘需求一律先支付后上架,请确认无误后再行付款。
免责声明:内容来自原创/投稿/公开渠道,纯属作者个人观点,仅供交流学习。转载稿件版权归原作者或机构所有,如有侵权,请联系删除。投稿、合作请联系:link@bi168.cn
168大数据
168大数据 www.bi168.cn 是国内更具影响力的数据科学社区媒体与产业服务平台,专注大数据、人工智能、商业智能、数据分析、云计算等数据科学领域的深度交流、知识分享、职场社交和职业发展,以大数据驱动创业创新和助力传统产业转型升级为使命,致力于为大数据产业的从业者、传统企业、厂商、服务商提供最具价值的资讯、服务、连接与产业研究。平台聚集了国内外近十万数据领域的大数据企业创始人、首席技术官、首席数据官、数据架构师、数据科学家、人工智能专家、商业智能专家等精英人物,共同致力于大数据技术、大数据价值、大数据思维的传播、交流与分享。
以上是关于译 ELK日志中心分布式架构的逐步演化的主要内容,如果未能解决你的问题,请参考以下文章