集中化日志管理平台的应用 ELK和filebeat简单配置 暂时没用

Posted 十一vs十一

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了集中化日志管理平台的应用 ELK和filebeat简单配置 暂时没用相关的知识,希望对你有一定的参考价值。

名称
优势
劣势
常⽤
Logstash
插件多,资料充⾜,配置简单
性能⼀般,不⽀持缓存
采集,传
Filebeat
可靠,性能好,多种对接
存在注册表过⼤问题
采集
Fluentd
基于Ruby,插件多,易于编写和
维护
灵活性相对差,性能⼀般
采集
Logtail
资源占⽤少
尽做收集,类型解析较弱
采集
Logagent
轻量快速,⽀持缓存
灵活性差
采集,传
rsyslog
速度快,轻量化,规则灵活
配置繁杂,⽂档差,版本
差异
采集
Syslog-ng
性能好,⽂档相对⻬全
开源版本功能有限
采集
Kafka
可靠,稳定,⾼性能
容易重复消费
传输
Flume
可靠,容错性⾼,易管理,实时
配置繁琐
传输
ElasticSearch
分布式部署,⾃动故障转移
个⼈开发,还不够⾃动
存储
HDFS
⾼容错,⼤数据存储
延迟⾼,不适于⼩⽂件
存储
kibana
多种图标配置简单
仅⽀持es
展示,分
grafana
多数据源⽀持,⾃带警报
偏监控⽅向
分析,预
2、中间件
2.1 概述
⽇志的⽣命周期⼀般分为采集,传输,存储和分析四个环节,每个步骤有可⽤的中间件和⼯具。
选⽤中间件时所关注的⻆度:性能、可靠性、插件⽀持程度、配置复杂度
2.1.1 汇总
2.1.2 总结
企业实际实战中,elk是成熟且⼴泛使⽤的⽅案。
logstash因为性能弱于fifilebeat,并不直接运⽤于采集起点,⼀般使⽤fifilebeat。
 
 
进⼊elk前,经验性⻆度,放置kafka,⼀⽅⾯作为队列和缓冲,另⼀⽅⾯提供了统⼀的⼊⼝渠道。
2.2 部署
2.2.1 ES
1)简介
  Elasticsearch 是⼀个开源的搜索引擎,建⽴在⼀个全⽂搜索引擎库Lucene基础之上。 Lucene 可
以说是当下最先进、⾼性能、全功能的搜索引擎库,缺点是Lucene的使⽤⾮常的复杂。Elasticsearch
也是使⽤ Java 编写的,它的内部使⽤ Lucene 做索引与搜索,但是它的⽬的是使全⽂检索变得简单,
通过隐藏 Lucene 的复杂性,取⽽代之的提供⼀套简单⼀致的 RESTful API。
2)相关链接
官⽹:
https://www.elastic.co/cn/downloads/elasticsearch
下载:
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.5.1-linux-x86_64.tar.gz
分词器:
https://github.com/medcl/elasticsearch-analysis-ik
3)部署
系统环境:以下课程假设测试机器ip为172.17.0.203
解压:
tar xvf elasticsearch-7.5.1-linux-x86_64.tar.gz
  许多年前,⼀个刚结婚的名叫
Shay Banon 的失业开发者,跟着他的妻⼦去了伦敦,他的妻⼦在那⾥
学习厨师。 为了给他的妻⼦做⼀个⻝谱搜索引擎,他开始使⽤
Lucene 的⼀个早期版本。直接使⽤
Lucene 是很难的,因此
Shay 开始做⼀个抽象层,Java 开发者使⽤它可以很简单的给他们的程序添加
搜索功能。 他发布了他的第⼀个开源项⽬ Compass。
  后来 Shay 获得了⼀份⼯作,主要是⾼性能,分布式环境下的内存数据⽹格。这个对于⾼性能,实
时,分布式搜索引擎的需求尤为突出, 他决定重写 Compass,把它变为⼀个独⽴的服务并取名
Elasticsearch。
  第⼀个公开版本在2010年2⽉发布,从此以后,Elasticsearch 已经成为了 Github 上最活跃的项
⽬之⼀,他拥有超过300名 contributors(⽬前736名 contributors )。 ⼀家公司已经开始围绕
Elasticsearch 提供商业服务,并开发新的特性,但是,Elasticsearch 将永远开源并对所有⼈可
⽤。
  据说,Shay 的妻⼦还在等着她的⻝谱搜索引擎… 0_0!
 
 
修改:
confifig/elasticsearch.yml
修改⽂件描述符:
vim /etc/sysctl.conf
启动:
4)验证:
访问 http://172.17.0.203:9200 , 启动成功
#主机名,通过 hostname 命令查询到
cluster.initial_master_nodes: ["主机名"]
network.host: 0.0.0.0
http.port: 9200
http.cors.enabled
: true
http.cors.allow-origin: "*"
vm.max_map_count=64000
sysctl -p
#es不允许root⽤户启动,需要添加新⽤户身份
#创建elsearch⽤户组及elsearch⽤户
groupadd elsearch
useradd elsearch -g elsearch -p elasticsearch
#更改elasticsearch⽂件夹及内部⽂件的所属⽤户及组为elsearch:elsearch
chown -R elsearch:elsearch elasticsearch
#切换到elsearch⽤户再启动
su elsearch
#守护进程运⾏
./bin/elasticsearch -d
#验证启动进程
ps aux | grep elasticsearch
 
 
5)中⽂分词器安装:
es默认分词器对中⽂分词⾮常不友好,需要安装ik分词器
Analyzer: ik_smart , ik_max_word , Tokenizer: ik_smart , ik_max_word
6)验证分词器:
POST: http://172.17.0.203:9200/_analyze
BODY: "text":"测试分词效果","analyzer": "ik_smart"
指令:curl http://localhost:9200/_analyze -X POST -H \'Content-Type:application/json\' -d
\'"text":"test elasticsearch 测试分词效果","analyzer": "ik_smart"\'
RESULT:
"name" : "bj-yjy-java-wsw",
"cluster_name" : "elasticsearch",
"cluster_uuid" : "LT1y6fQSRPykQv3BUdolZg",
"version" :
"number" : "7.5.1",
"build_flavor"
:
"default"
,
"build_type"
:
"tar"
,
"build_hash" : "3ae9ac9a93c95bd0cdc054951cf95d88e1e18d96",
"build_date"
: "2019-12-16T22:57:37.835892Z",
"build_snapshot" : false,
"lucene_version"
: "8.3.0",
"minimum_wire_compatibility_version"
: "6.8.0",
"minimum_index_compatibility_version" : "6.0.0-beta1"
,
"tagline" : "You Know, for Search"
wget -c https://github.com/medcl/elasticsearch-analysis
ik/releases/download/v7.5.1/elasticsearch-analysis-ik-7.5.1.zip
mkdir $ES_HOME/plugins/ik
unzip elasticsearch-analysis-ik-7.5.1.zip -d $ES_HOME/plugins/ik
#安装完成重启es
 
 
2.2.2 es-head
1)简介
  我们可以⽅便的使⽤curl等客户端⼯具,通过Restful API对Elasticsearch进⾏操作,但也有⼀些客
户端⼯具提供对于ElasticSearch更加友好的可视化操作⽀持,elasticsearch-head就是其中很优秀的代
表。
"tokens": [
"token": "test",
"start_offset": 0,
"end_offset": 4,
"type": "ENGLISH",
"position": 0
,
"token"
: "elasticsearch"
,
"start_offset"
: 5,
"end_offset"
: 18,
"type"
: "ENGLISH"
,
"position": 1
,
"token": "测试",
"start_offset": 19,
"end_offset": 21,
"type": "CN_WORD",
"position": 2
,
"token": "分词",
"start_offset": 21,
"end_offset": 23,
"type": "CN_WORD",
"position": 3
,
"token": "效果",
"start_offset": 23,
"end_offset": 25,
"type": "CN_WORD",
"position": 4
]
 
 
  早期版本的elasticsearch-head可以直接以插件的⽅式在Elasticsearch中进⾏安装,在
Elasticsearch 5之后则需要将elasticsearch-head服务单独运⾏,并且⽀持Chrome的插件⽅式或者
Docker容器运⾏⽅式。
2)部署
3)验证
访问9100端⼝,并连接es地址:
4)功能演示
概览:健康状态、集群信息、索引信息、分区信息
索引:索引概览、新建索引
数据浏览:索引清单、字段清单与筛选
数据查询:基本查询、复杂查询、查询基本语法
2.2.3 logstash
1)简介
Logstash诞⽣于2009年8有2⽇,其作者是世界著名的虚拟主机托管商DreamHost的运维⼯程师Jordan
Sissel。在2013年,被ElasticSearch公司收购,作为⽇志收集⼯具,成为elk的⼀员。
2)相关链接
项⽬主⻚:
#采⽤docker启动
#查看镜像
docker images |
grep elasticsearch-head
#下载镜像
docker pull alivv/elasticsearch-head
#启动
docker run -d --name eshead -p 9100:9100 alivv/elasticsearch-head
 
 
https://www.elastic.co/cn/downloads/logstash
下载地址:
wget https://artifacts.elastic.co/downloads/logstash/logstash-7.5.1.tar.gz
3)部署
解压:
tar xvf logstash-7.5.1.tar.gz
配置:
在conf.d⽬录下新建⼀个confifig1.conf⽂件
启动,允许配置⽂件⾃动刷新:
4)验证:
input
file
path => "/root/logs/*.log"
start_position => beginning
add_field => "from" => "localfile"
filter
output
elasticsearch
hosts => "localhost:9200"
index => "mylog"
stdout
nohup sh /opt/app/elk/logstash-7.5.1/bin/logstash -f /opt/app/elk/logstash-
7.5.1/conf.d/ --config.reload.automatic >> /opt/logs/logstash.log &
 
 
2.2.4 kibana
1)简介
  Kibana是⼀个开源的分析与可视化平台,主要⽤于和
Elasticsearch⼀起使⽤。使⽤kibana进⾏简单
的配置,就可以搜索、查看存放在Elasticsearch中的数据。Kibana具有各种不同的图表、表格、地图
等,借助这些直观的视图,可以达到⾼级的数据分析与可视化的⽬的。
2)相关链接
https://www.elastic.co/cn/downloads/kibana
https://artifacts.elastic.co/downloads/kibana/kibana-7.5.1-linux-x86_64.tar.gz
3)安装部署
解压:
tar xvf kibana-7.5.1-linux-x86_64.tar.gz
配置:
confifig/kibana.yml
#⽣成⼀条测试⽇志数据,从es-head验证是否正常采集
mkdir -p /root/logs/
date >> /root/logs/1.log
 
 
启动:
4)验证
启动成功,数据为空,向es提交⼀条数据,通过es-head查询,并通过logstash查询类⽐展示
下⾯logstash搭建完成后,会再次展示通过采集进⼊的数据
5)功能
索引配置
⽇志配置
检索
图表
2.2.5 kafka
1)简介
Kafka是最初由Linkedin公司开发,是⼀个分布式、分区的、多副本的、多订阅者,基于zookeeper协调
的分布式⽇志系统(也可以当做MQ系统),常⻅可以⽤于web/nginx⽇志、访问⽇志,消息服务等
等,Linkedin于2010年贡献给了Apache基⾦会并成为顶级开源项⽬。常⽤于⽇志处理场景。
2)资源
http://kafka.apache.org/downloads
3)部署
server.port: 9102
server.host: "0.0.0.0"
elasticsearch.hosts: "http://localhost:9200"
kibana.index: ".kibana"
#kibana默认不允许
root⽤户启动,可以加--allow-root选项
nohup sh /opt/app/elk/kibana-7.5.1-linux-x86_64/bin/kibana
--allow-root >
/opt/logs/kibana.log &
#docker启动
#启动zookeeper
docker run --name zookeeper \\
-v /opt/data/zksingle:/data \\
 
 
4)验证
5)实例操作
修改logstash从kafka获取,从控制台重新写⼊⼀条⽇志,进kibana查看数据展示情况
-p 2181:2181 \\
-e ZOO_LOG4J_PROP="INFO,ROLLINGFILE" \\
-d zookeeper:3.4.13
#启动kafka
docker run -d --name kafka \\
-p 9103
:9092 \\
--link zookeeper:zookeeper \\
--env
KAFKA_BROKER_ID
=100 \\
--env
HOST_IP=39.98.133.153 \\
--env
KAFKA_ZOOKEEPER_CONNECT
=zookeeper:2181 \\
--env
KAFKA_ADVERTISED_HOST_NAME
=39.98.133.153 \\
--env KAFKA_ADVERTISED_PORT=9103 \\
--restart=always \\
--volume /etc/localtime:/etc/localtime \\
wurstmeister/kafka:2.12-2.2.2
#使⽤zk节点数据验证启动情况
docker exec -it zookeeper sh
#进⼊zookeeper后查看节点信息
ls /brokers
#进⼊容器
docker exec -it kafka sh
/opt/kafka_2.12-2.2.2/bin
#客户端监听(该步会⾃动创建topic)
./kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic demo --
from-beginning
#另起⼀个终端,验证发送
./kafka-console-producer.sh --broker-list localhost:9092 --topic demo
input
file
path => "/root/logs/*.log"
 
 
2.2.6 kafka-manager
1)简介
  kafka-manager是⽬前最受欢迎的kafka集群管理⼯具,最早由雅⻁开源,⽤户可以在Web界⾯执
⾏⼀些简单的集群管理操作。具体⽀持以下内容:
管理多个集群
轻松检查群集状态(主题,消费者,偏移,代理,副本分发,分区分发)
运⾏⾸选副本选举
使⽤选项⽣成分区分配以选择要使⽤的代理
运⾏分区重新分配(基于⽣成的分配)
使⽤可选主题配置创建主题(0.8.1.1具有与0.8.2+不同的配置)
删除主题(仅⽀持0.8.2+并记住在代理配置中设置delete.topic.enable = true)
主题列表现在指示标记为删除的主题(仅⽀持0.8.2+)
批量⽣成多个主题的分区分配,并可选择要使⽤的代理
批量运⾏重新分配多个主题的分区
将分区添加到现有主题
更新现有主题的配置
2)资源
start_position => beginning
add_field => "from" => "localfile"
kafka
bootstrap_servers => ["39.98.133.153:9103"]
group_id => "logstash"
topics => ["demo"]
consumer_threads
=>
1
decorate_events
=>
true
add_field
=> "from" => "demo"
filter
output
elasticsearch
hosts => "localhost:9200"
index => "mylog"
stdout
 
 
  https://github.com/yahoo/kafka-manager/releases
  docker库⾥的版本太陈旧,需要从官⽹下载源码包,编译成⼆进制包。具体编译过程参考项⽬主⻚
下⾯的Deployment章节。
  部署中直接使⽤打好包的kafka-manager-2.0.0.2.zip,manage版本为2.0.0.2,配置kafka cluster
最⾼⽀持2.2.0 ,实际验证,可以操作kafka 2.2.2
3)部署
4)功能说明
cluster创建与管理
Brokers信息查看
topic创建与管理
pattern及replica配置
2.2.7 fifilebeat
1)简介
  Filebeat是⼀个轻量级⽇志传输Agent,可以将指定⽇志转发到Logstash、Elasticsearch、Kafka、
Redis等中。Filebeat占⽤资源少,⽽且安装配置也⽐较简单,⽀持⽬前各类主流OS及Docker平台。
#解压
unzip kafka-manager-2.0.0.2.zip
#配置⽂件,修改⽬录下的conf/application.conf
kafka-manager.zkhosts="localhost:2181"
#启动,指定端⼝9104
km_home=./kafka-manager-2.0.0.2
nohup $km_home/bin/kafka-manager -Dconfig.file=$km_home/conf/application.conf -
Dhttp.port=9104 > /opt/logs/kibana.log &
tail -f /opt/logs/kibana.log
 
 
 
 
 
2)资源
主⻚:
https://www.elastic.co/cn/products/beats/fifilebeat
下载:
wget https://artifacts.elastic.co/downloads/beats/fifilebeat/fifilebeat-7.5.1-linux-x86_64.tar.gz
3)部署
解压:tar zxvf fifilebeat-7.5.1-linux-x86_64.tar.gz
使⽤kafka-manager创建⼀个fifilebeat队列
配置fifilebeat.yml:
filebeat.inputs:
- type: log
enabled: true
paths:
- /root/logs/*.log
fields:
from: filebeat启动:
4)验证
修改logstash,去掉fifile采集,接收来⾃fifilebeat队列的消息。
请注意!这⾥有⼀个问题:fifilebeat默认读取字符后,输出的是json格式,上述codec即让logstash解析
json,但是仍会报错。原因是fifilebeat⾥的host.name属性,需要加⼊fifilter,合并属性名字:
output.kafka:
enabled: true
hosts: ["39.98.133.153:9103"]
topic: filebeat
compression: gzip
processors:
- drop_fields:
fields: ["beat"
, "input", "source",
"offset","metadata"
,"timestamp","agent","ecs","fields"]
filebeat.config.modules
:
path: $path.config/modules.d/*.yml
reload.enabled: true
logging.level: info
name: filebeat-server-ip
cd /opt/app/elk/filebeat-7.5.1-linux-x86_64
nohup ./filebeat -e -c filebeat.yml >> /opt/logs/filebeat.log &
tail -f /opt/logs/filebeat.log
input
kafka
bootstrap_servers => ["39.98.133.153:9103"]
group_id => "logstash"
topics => ["filebeat"]
consumer_threads => 1
decorate_events => true
add_field => "from" => "filebeat"
codec => "json"
...
filter
mutate
rename => "[host][name]" => "host"
 
 
重新录⼊⼀条⽇志信息仅log⽂件,查看logstash stdout⽇志,查看kibana是否正常采集⼊es
附:fifilebeat输出json格式参考范本
附:简单⽂本处理命令参考
"@timestamp"
: "2019-05-11T07:55:02.127Z",
"@metadata"
:
 
"beat"
:
"filebeat"
,
 
"type"
:
"_doc",
"version": "7.5.1",
"topic": "app.log"
,
"ecs":
"version": "1.0.0"
,
"log":
"offset": 2661796,
"file":
"path": "/var/log/app.log"
,
"message": "05-11 00:10:19.851[DEBUG][http-nio-39545-exec-9] ",
"fields":
"log_topic": "app.log"
,
"host":
"name": "172.33.12.109"
,
"agent":
"id": "6a86e9d9-e1e8-4b32-b027-f1c936f66e4f",
"version": "7.0.1",
"name": "172.33.12.109",
"type": "filebeat",
"ephemeral_id": "8326a240-e9de-44f4-b24d-a1c8d2654e19",
"hostname": "client-ali"
#列出根下的⽬录
ls -l
lrwxrwxrwx. 1 root root 7 Dec 17 09:20 bin -> usr/bin
dr-xr-xr-x. 5 root root 4096 Dec 24 18:33 boot
 
 
drwxr-xr-x 21 root root 3140 Dec 31 10:39 dev
drwxr-xr-x. 84 root root 8192 Jan 3 10:09 etc
drwxr-xr-x. 3 root root 22 Jan 3 09:38 home
lrwxrwxrwx. 1 root root 7 Dec 17 09:20 lib -> usr/lib
lrwxrwxrwx. 1 root root 9 Dec 17 09:20 lib64 -> usr/lib64
...
#使⽤grep过滤lib
开头,并且不要带
64的
ll | grep lib |
grep -v 64
lrwxrwxrwx.
1 root root 7 Dec 17 09:20 lib -> usr/lib
#使⽤awk摘取⽬录名称
ll | grep lib | grep -v 64 | awk \'print $9\'
lib
#awk可以⾃定分隔符,⽤-F
echo \'123#456\'
echo \'123#456\' | awk -F \'#\' \'print $2\'
 
 
 

Windows环境下ELK平台的搭建

.背景

日志主要包括系统日志、应用程序日志和安全日志。系统运维和开发人员可以通过日志了解服务器软硬件信息、检查配置过程中的错误及错误发生的原因。经常分析日志可以了解服务器的负荷,性能安全性,从而及时采取措施纠正错误。

通常,日志被分散的储存不同的设备上。如果需要管理数十上百台服务器,必须依次登录每台机器的传统方法查阅日志,这样很繁琐和效率低下。当务之急是使用集中化的日志管理,开源实时日志分析ELK平台能够完美的解决上述所提到的问题。

2.工具

ELK由ElasticSearch(ES)、Logstash和Kiabana三个开源工具组成。

ES是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。

Logstash是一个完全开源的工具,可以对日志进行收集、分析、并将其存储供以后使用。

kibana也是一个开源和免费的工具,他Kibana可以为Logstash和ES提供的日志分析友好的Web界面,可以帮助您汇总、分析和搜索重要数据日志。

可以在ELK官网 https://www.elastic.co/下载最新版本的工具安装包,Windows环境选择后缀为zip格式的下载。如遇下载速度慢或下载中途停止,可以采用VPN代理下载或者云服务器下载。

3.安装环境

本次ELK平台搭建均在Windows环境(Windows 10)下进行,Linux平台下环境搭建和Windows下基本类似,就不再介绍。

4.安装过程

4.1安装配置Java环境

Oracle官网获取最新版的Java版本,由于只是运行不是开发,所以也可以只下载JRE。官网:http://www.oracle.com/

安装过程比较简单,运行可执行文件一直下一步即可。安装完成后,配置JAVA_HOME和JRE_HOME,如下图所示:

 

 

在cmd命令窗口中运行java -version命令,如果现实如下结果,表示安装成功:

 

 

 

4.2安装ELK

由于Logstash服务依赖ES服务,Kibana服务依赖Logstash和ES,所以ELK的服务启动顺序为:ES->Logstash->Kibana,为了配合服务启动顺序,我们安装顺序和启动顺序保持一致。

解压三个压缩包到同一个目录中,目录的绝对路径中最好不要出现中文字符和空格。如下图(解压到D盘的ELK目录下):

 

4.3安装ES服务

cmd进入elasticsearch的bin目录,运行Service install,安装ES服务,如下图:

 

 

 

运行 service manager,管理配置ES,点击Start启动服务,如下图:

 

 

如果启动未成功,检查以下配置是否正常,如图:

 

 

至此,ES服务安装配置基本完成。

打开浏览器,输入http://localhost:9200/,若出现以下结果,则表示安装成功,服务启动:

 

 

安装head插件,在bin目录下,运行plugin install mobz/elasticsearch-head。安装完成后,在浏览器里输入:http://localhost:9200/_plugin/head/,出现类似以下结果,表示插件安装成功:

 

 

 

4.4安装Logstash服务

在logstash文件夹的bin目录里新建logstash.conf配置文件,具体内容如下,具体参数可以自定义:

 

 

 

在bin目录中新建logstash启动批处理文件run.bat

内容如下:

 

 

 

安装logstash到windows服务:从nssm官网上下载nssm压缩包,根据操作系统是32位还是64位提取出压缩包中的nssm.exe,拷贝到logstash的bin目录下,在cmd中运行nssm install logstash,出现安装界面并填写相应的内容:

 

 

在依赖里面根据填写如下内容(注意:Java是32位的后缀是x86,64位的是x64):

 

 

 

添加依赖的原因是,logstash的输出配置的是Elasticsearch,如果Elasticsearch没有启动,logstash无法正常工作。

最后单击install service按钮,执行安装过程。

4.5安装Kibana服务

安装Kibana服务和logstash服务步骤差不多,将nssm拷贝到kibana的bin目录下,在cmd中运行nssm install kibana,填写如下内容:

 

 

依赖里面配置如下内容:

 

 

最后单击install service按钮,执行安装过程。

5.启动服务

在cmd中运行services.msc打开windows服务,依次启动如下服务:

Elasticsearch

Logstash

Kibana

 

在浏览器中输入:http://localhost:5601/,如果出现如下界面,表示服务启动成功:

 

 

单击“create”按钮,然后点击Discover

 

 

 

  至此,所有服务安装完成,平台搭建完成,后续集群的部署还需要在ELK的各个配置文件中进行详细的配置,安装配置过程中出现的各种问题和解决方案也会在后面详细说明。如有疑问:请发邮件至pilihaotian@163.com,欢迎指正交流

以上是关于集中化日志管理平台的应用 ELK和filebeat简单配置 暂时没用的主要内容,如果未能解决你的问题,请参考以下文章

快速搭建ELK集中化日志管理平台

ELK日志分析平台环境部署 (yum安装)

使用ELK(Elasticsearch + Logstash + Kibana) 搭建日志集中分析平台实践

ELK服务搭建(开源实时日志分析ELK平台部署)(低版本—简单部署)

通过ELK快速搭建一个你可能需要的集中化日志平台

初识集中化日志平台框架 ELK