ELK日志分析平台之Elasticsearch

Posted S4061222

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了ELK日志分析平台之Elasticsearch相关的知识,希望对你有一定的参考价值。

elasticsearch简介

  • Elasticsearch 是一个开源的分布式搜索分析引擎,建立在一个全文搜索引擎库 Apache Lucene基础之上。
  • Elasticsearch 不仅仅是 Lucene,并且也不仅仅只是一个全文搜索引擎:
  • 一个分布式的实时文档存储,每个字段 可以被索引与搜索
  • 一个分布式实时分析搜索引擎
  • 能胜任上百个服务节点的扩展,并支持 PB 级别的结构化或者非结构化数据
  • 基础模块
    cluster:管理集群状态,维护集群层面的配置信息。
    alloction:封装了分片分配相关的功能和策略。
    discovery:发现集群中的节点,以及选举主节点。
    gateway:对收到master广播下来的集群状态数据的持久化存储。
    indices:管理全局级的索引设置。
    http:允许通过JSON over HTTP的方式访问ES的API。
    transport:用于集群内节点之间的内部通信。
    engine:封装了对Lucene的操作及translog的调用。

  • elasticsearch应用场景
    信息检索
    日志分析
    业务数据分析
    数据库加速
    运维指标监控

官网:https://www.elastic.co/cn/

一 ES安装与集群部署

1 单节点elasticsearch安装

清理实验环境:

ELK对应三个软件,注意版本匹配(7.6.1,自带jdk),需要提前删除之前安装的 jdk

所有主机添加解析

server7主机中安装与配置elasticsearch
server7给予2G内存
安装软件,7.6版本自带jdk,无需再次安装下载jdk

设置服务自启

查看日志

查看elasticsearch的端口:9200

编辑elasticsearch.yaml文件,使全部网段都可访问

cat jvm.options

-Xms1g
-Xmx1g
Xmx设置不超过物理RAM的50%,以确保有足够的物理RAM留给内核文件系统缓存。但不要超过32G。

重启elasticsearch失败

查看日志:

继续编辑elasticsearch.yaml文件,集群名称:my-es,节点设定

索死1G内存的话需要修改系统限制 (/etc/security/limits.conf) 修改systemd启动文件(/usr/lib/systemd/system/elasticsearch.service),重启systemctl daemon-reload

!!!此处没有设定锁死 bootstrap.memory_lock: true #锁定内存分配 ,没有打开


三台主机都设定,指向server7主机

重启服务成功

查看日志,注意查看日志的名称已改变:my-es.log

测试:
外部访问成功


此处禁用swap分区:实验效果更加流畅,如果内存不够,可以不用禁止

2 搭建elasticsearch集群

复制elasticsearch的安装包给server9和server8

server8安装elasticsearch

server8修改elasticsearch配置文件

server8重启服务

server9安装elasticsearch

server9修改elasticsearch配置文件

server9重启服务

测试:
外部访问server8和server9

二 elasticsearch集群监控–可视化

1 elasticsearch-head插件

elasticsearch-head是elasticsearch自带插件

下载elasticsearch-head插件, head插件本质上是一个nodejs的工程,因此需要安装node

安装node

由于master.zip需要解压工具,所以安装unzip,解压master

保证可以上网

更换npm源安装(由于npm慢,所以更换为cnpm源)

cd elasticsearch-head-master/
npm install  -g cnpm --registry=https://registry.npm.taobao.org


安装cnpm,(bzip,安装cnpm需要用到)

cnpm -v 查看版本号

进入_site/子目录,查看app.js文件

查看ES主机端口:9200


端口查看

server7 启动head插件,打入后台运行 , 本机开启端口为9100

设为中文,访问head插件服务

访问失败

需要在主配置文件elasticsearch.yml中加入以下内容
修改ES跨域主持

http.cors.enabled: true	# 是否支持跨域
http.cors.allow-origin: "*"	# *表示支持所有域名


重启ES服务生效

重新访问head插件服务成功!!!

http://172.25.28.7:9100,

监控http://172.25.77.3:9200的elasticsearch,
可以看到集群的三个节点。*代表master节点

默认监听在9100端口:


灰色标识没有副本 黄色代表没有主分片丢失

2 cerebro插件

cerebro是镜像,真机是8.2的红帽系统,红帽系统自带podman(等同docker)


真机导入镜像,
podman run -d --name cerebro -p 9000:9000 lmenezes/cerebro
#运行该镜像,默认开放9000端口

网页访问 http://172.25.28.250:9000,

需要输入监听的地址,http://172.25.28.7:9200(server7,server8,server9的地址都可,ES集群)

成功进入cerebro

点击nodes,可以看到ES集群中三个节点都在

三 ES节点角色

  • Master:
    主要负责集群中索引的创建、删除以及数据的Rebalance等操作。Master不负责数据的索引和检索,所以负载较轻。当Master节点失联或者挂掉的时候,ES集群会自动从其他Master节点选举出一个Leader。

  • Data Node:
    主要负责集群中数据的索引和检索,一般压力比较大。

  • Coordinating Node:
    原来的Client node的,主要功能是来分发请求和合并结果的。所有节点默认就是Coordinating node,且不能关闭该属性。

  • Ingest Node:
    专门对索引的文档做预处理

1 elasticsearch节点优化方式

  • 在生产环境下,如果不修改elasticsearch节点的角色信息,在高数据量,高并发的场景下集群容易出现脑裂等问题。

  • 默认情况下,elasticsearch集群中每个节点都有成为主节点的资格,也都存储数据,还可以提供查询服务

  • 节点角色是由以下属性控制:

    node.master: false|true (这个属性表示节点是否具有成为主节点的资格, 注意:此属性的值为true,并不意味着这个节点就是主节点。因为真正的主节点,是由多个具有主节点资格的节点进行选举产生的。)

    node.data: true|false (这个属性表示节点是否存储数据。)

    node.ingest: true|false(是否对文档进行预处理。)

    search.remote.connect: true|false(是否禁用跨集群查询)

    默认情况下这些属性的值都是true。

节点优化的四种组合:

第一种组合:(默认)

node.master: true
node.data: true
node.ingest:  true
search.remote.connect: true

这种组合表示这个节点即有成为主节点的资格,又存储数据。
如果某个节点被选举成为了真正的主节点,那么他还要存储数据,这样对于这个节点的压力就比较大了。
测试环境下这样做没问题,但实际工作中不建议这样设置

第二种组合:(Data node)

node.master: false
node.data: true
node.ingest: false
search.remote.connect: false

这种组合表示这个节点没有成为主节点的资格,也就不参与选举,只会存储数据。
这个节点称为data(数据)节点。在集群中需要单独设置几个这样的节点负责存储数据。后期提供存储和查询服务。

第三种组合:(master node)

node.master: true
node.data: false
node.ingest: false
search.remote.connect: false

这种组合表示这个节点不会存储数据,有成为主节点的资格,可以参与选举,有可能成为真正的主节点。 这个节点我们称为master节点。

第四种组合:(Coordinating Node)

node.master: false
node.data: false
node.ingest: false
search.remote.connect: false

这种组合表示这个节点即不会成为主节点,也不会存储数据, 这个节点的意义是作为一个协调节点,主要是针对海量请求的时候可以进行负载均衡。

第五种组合:(Ingest Node)

node.master: false
node.data: false
node.ingest: true
search.remote.connect: false

这种组合表示这个节点即不会成为主节点,也不会存储数据, 这个节点的意义是ingest节点,对索引的文档做预处理。

2 设定集群中某节点不存储数据,role角色无data

生产集群中可以对这些节点的职责进行划分 建议集群中设置3台以上的节点作为master节点,这些节点只负责成为主节点,维护整个集群的状态。
再根据数据量设置一批data节点,这些节点只负责存储数据,后期提供建立索引和查询索引的服务,这样的话如果用户请求比较频繁,这些节点的压力也会比较大。
所以在集群中建议再设置一批协调节点,这些节点只负责处理用户请求,实现请求转发,负载均衡等功能

节点需求
master节点:普通服务器即可(CPU、内存 消耗一般)
data节点:主要消耗磁盘、内存。
path.data: data1,data2,data3
这样的配置可能会导致数据写入不均匀,建议只指定一个数据路径,磁盘可以使用raid0阵列,而不需要成本高的ssd。
Coordinating节点:对cpu、memory要求较高。

实验环境:
ES集群server7,server8,server9,其中server9为master

查看server7节点的信息

此时server7中role角色有 Ingest(预处理),Master(整个集群的master),data(存储数据),ml(机器学习)

server7主机编辑主编配置文件/etc/elasticsearch/elasticsearch.yml,添加node.data: false语句,表示该主机不存放数据

重启ES服务

查看server7节点的信息

此时server7中role角色有 Ingest(预处理),Master(整个集群的master)和 ml(机器学习),无data

四 节点需求

data节点:容易消耗磁盘,内存;
ELK可以和hadoop结合使用,ELK:存放热数据,hadoop:存放冷数据,存放离线数据
多路径冗余不需要:(ELK本身就是分布式,加大单节点IO)

五 节点扩容

集群名称必须设定一样!!!

六 节点缩容:

本机可以使用localhost/其他使用ip
命令行直接输入,ip换为删除的节点ip(修改ip!!!)

以上是关于ELK日志分析平台之Elasticsearch的主要内容,如果未能解决你的问题,请参考以下文章

限时免费 | ELK入门实践之Elasticsearch

企业运维之 ELK日志分析平台(Elasticsearch)

企业运维之 ELK日志分析平台(Elasticsearch)

ELK搭建实时日志分析平台之二Logstash和Kibana搭建

ELK日志分析平台搭建----ELASTICSEARCH

Elasticsearch + Logstash + Filebeat + Kibana搭建ELK日志分析平台(官方推荐的BEATS架构)